Quando si effettuano misurazioni, la presenza di errori casuali è inevitabile. Ogni dato misurato è influenzato da queste fluttuazioni casuali, le quali contribuiscono a formare una distribuzione probabilistica che può essere descritta attraverso diverse tecniche. Una delle modalità più comuni per visualizzare tale distribuzione è attraverso l'istogramma, che rappresenta la probabilità di ottenere un valore di lettura in intervalli predefiniti. Tuttavia, l'approccio basato su intervalli discreti porta a delle difficoltà quando si cerca di passare a una rappresentazione continua della probabilità.
Nel contesto di una distribuzione di probabilità, supponiamo di avere un insieme di letture, ad esempio 130 misurazioni, di cui 26 si trovano nell'intervallo compreso tra 18,95 mV e 19,05 mV. Questa percentuale di letture è pari al 20% del totale. Quando l'istogramma viene tracciato, l'altezza delle colonne rappresenta la probabilità di ottenere una lettura in un dato intervallo. Ogni intervallo ha una larghezza definita, il che implica che la somma delle aree delle colonne nell'istogramma sia uguale a uno, ovvero l'area totale sotto l'istogramma è 1.
Tuttavia, l'uso di larghezze finite degli intervalli limita la risoluzione della distribuzione. Se si riduce la larghezza degli intervalli (w), aumentando il numero di segmenti, le altezze delle colonne diminuiscono, ma la somma delle aree delle colonne continua a essere uguale a uno. Questo approccio diventa problematico quando si desidera rappresentare la probabilità di ottenere una lettura in un intervallo arbitrario, non predefinito da un intervallo w. In questo caso, occorre passare a una distribuzione continua, che può essere ottenuta facendo tendere la larghezza dell'intervallo w a zero.
Nel passaggio alla distribuzione continua, la y-axis non rappresenta più la probabilità discreta, ma la densità di probabilità p(x), che è la probabilità per unità di larghezza. Se si moltiplica questa densità per la larghezza di un intervallo infinitesimale, si ottiene la probabilità di una lettura in quel determinato intervallo. Pertanto, l'area sotto la curva continua rappresenta la probabilità complessiva, che deve essere uguale a uno.
La transizione da un istogramma discreto a una distribuzione continua è rappresentata dalla curva di distribuzione di probabilità, che si ottiene facendo tendere l'intervallo w a zero. La distribuzione risultante è una curva che rappresenta la probabilità di ottenere una lettura in qualsiasi punto x. Una delle distribuzioni più comuni per rappresentare i dati misurati è la distribuzione normale, o distribuzione gaussiana, che può essere descritta dalla funzione:
Questa funzione è stata proposta dal matematico Carl Friedrich Gauss e ha resistito alla prova del tempo come una delle descrizioni più accurate dei dati misurati affetti da errori casuali. La distribuzione normale è anche conosciuta come la "distribuzione standard" poiché viene utilizzata per modellare una vasta gamma di fenomeni naturali e misurazioni.
Nel caso di una distribuzione normale, si osserva che il 68,2% di tutti i dati misurati si trova entro un intervallo definito come la media ± uno scarto quadratico medio (σ). L'intervallo che va dalla media ± due scarti quadrati copre il 95,4% dei dati, e l'intervallo che va dalla media ± tre scarti quadrati copre il 99,6% dei dati. In alcuni ambiti, come la gestione della qualità, si utilizza anche un intervallo che copre il 99,9999998% dei dati, noto come "sei sigma". Questo concetto è utilizzato per garantire che il numero di errori nei processi produttivi sia minimizzato e che si ottengano risultati quasi perfetti.
La funzione gaussiana è quindi fondamentale per la comprensione delle distribuzioni di probabilità nei dati misurati. Se la distribuzione è ben modellata da una funzione gaussiana, possiamo utilizzare la media (μ) e la deviazione standard (σ) per descrivere completamente il set di dati. Quando i dati seguono una distribuzione normale, possiamo fare affidamento su queste statistiche per predire le probabilità di future letture.
Un'altra area in cui la distribuzione normale trova applicazione è nella propagazione degli errori casuali. Ad esempio, quando si combinano misure affette da errori casuali, come nel caso dell'addizione o sottrazione di due grandezze, la deviazione standard del risultato finale dipenderà dalle deviazioni standard delle singole misure. Se le grandezze e sono misurate con errori casuali, la deviazione standard del risultato finale può essere calcolata utilizzando la somma delle varianze delle due grandezze misurate:
In altre parole, la propagazione dell'errore in un'operazione matematica su grandezze misurate comporta una somma delle varianze individuali.
In sintesi, per rappresentare correttamente i dati affetti da errori casuali, è cruciale passare da un modello discreto a uno continuo, utilizzando la distribuzione gaussiana come descrizione fondamentale della probabilità. Inoltre, la comprensione dei concetti di media, deviazione standard e propagazione degli errori è essenziale per lavorare correttamente con misurazioni e per prendere decisioni informate basate su dati reali.
Come Funzionano i DAC e i Circuiti di Campionamento e Mantenimento nei Convertitori Analogico-Digitali
Il DAC (Digital-to-Analog Converter) è un componente fondamentale nei sistemi elettronici, utilizzato per convertire segnali digitali in segnali analogici. La sua uscita dipende dai valori dei bit di ingresso, rappresentati come b3, b2, b1, b0, e viene calcolata tramite la somma dei contributi di ciascun bit. Questo tipo di DAC è comunemente noto come "current mode DAC", in cui l'uscita del DAC, Vdac, può essere espressa matematicamente come un prodotto tra una tensione di riferimento VR e la combinazione di numeri binari, secondo la formula:
Questa equazione mostra che il DAC è un "multiplying DAC" (mDAC), in cui l'uscita è il risultato della moltiplicazione della tensione di riferimento VR con una combinazione dei bit binari. In termini pratici, tutti i DAC possono essere considerati come "multiplying DAC" se VR è una tensione continua. Se VR è una tensione alternata, i DAC devono essere progettati in modo tale che gli interruttori e le resistenze siano compatibili con l'AC.
Un aspetto interessante di un DAC è che, variando i bit da "00...00" a "11...11", l'uscita cambia da 0 a circa 2 volte VR. Questo lo rende utile anche come attenuatore digitale controllato da un microprocessore, e può essere impiegato come un potenziometro digitale. Al posto delle resistenze, in un DAC si possono anche usare condensatori, ottenendo una rete a scala di capacità 2C−C, che consente di risparmiare energia rispetto a un DAC basato su resistenze. Tuttavia, tali DAC a commutazione di capacità non sono ancora ampiamente disponibili sul mercato.
Un altro aspetto cruciale nella progettazione di convertitori analogico-digitali (ADC) è garantire che l'ingresso non cambi durante il tempo di conversione. Per fare ciò, si utilizza un circuito denominato "Sample and Hold". Questo circuito, come mostrato nel diagramma a blocchi in figura 9.44, permette di mantenere costante l'input durante il periodo di conversione dell'ADC, impedendo che eventuali variazioni dell'ingresso alterino i risultati. Quando il segnale di controllo S/H è in modalità "sample" (S/H = "1"), l'uscita segue il valore dell'ingresso. Quando il segnale di controllo passa a "hold" (S/H = "0"), l'uscita si stabilizza e mantiene il valore acquisito.
Un circuito molto semplice di campionamento e mantenimento, mostrato nella figura 9.45a, impiega un interruttore SPST (Single Pole Single Throw) e un condensatore C. Quando l'ingresso S/H è a "1", l'interruttore si chiude e il condensatore si carica fino a raggiungere il valore dell'ingresso. Quando S/H è a "0", l'interruttore si apre, e il condensatore mantiene il valore acquisito, entrando in modalità "hold". Tuttavia, affinché il circuito funzioni correttamente, l'interruttore e il condensatore devono essere ideali. Inoltre, durante la modalità "sample", l'ingresso deve fornire la corrente necessaria per caricare o scaricare il condensatore, mentre durante la modalità "hold" nessuna corrente deve essere prelevata dal condensatore.
Esistono circuiti più complessi e più avanzati di campionamento e mantenimento, come quello mostrato nella figura 9.45b, che è molto utilizzato e disponibile come circuito integrato da diversi produttori. La principale differenza con il circuito semplice è che, in modalità "hold", la corrente necessaria viene fornita da un secondo amplificatore operazionale, riducendo la necessità di corrente da parte del condensatore.
Le caratteristiche importanti di un circuito di campionamento e mantenimento includono:
-
Tempo di acquisizione: il tempo minimo necessario affinché l'uscita segua l'ingresso con una deviazione inferiore al 0,01% quando il circuito cambia dalla modalità "sample" alla modalità "hold".
-
Tasso di caduta: la velocità con cui l'uscita varia nella modalità "hold", principalmente a causa della corrente di bias dell'ingresso e delle correnti di dispersione.
-
Tensione di offset dell'ingresso: la differenza di tensione tra gli ingressi non invertente e invertente di un amplificatore operazionale.
-
Corrente di bias dell'ingresso: la corrente che viene assorbita dagli ingressi del circuito, influenzando il comportamento generale del campionamento.
-
Errore di guadagno: la differenza tra il guadagno reale e quello progettato del circuito, che può variare, ma generalmente è molto piccola.
Infine, una comprensione fondamentale quando si utilizza un circuito di campionamento e mantenimento è che ogni fase del campionamento deve essere eseguita con precisione per evitare errori nei dati acquisiti. La qualità del segnale acquisito dipende anche dall'integrità dei componenti utilizzati, dalla loro capacità di mantenere il valore del segnale senza introdurre distorsioni o perdite.
Come Misurare la Potenza nei Sistemi Elettrici: Tecniche e Strumenti
La misurazione della potenza in un sistema elettrico richiede l'uso di strumenti e tecniche altamente specializzati, soprattutto quando si tratta di sistemi in corrente alternata (AC). Le metodologie tradizionali, come il Q-metro e il wattmetro elettronico, sono state affiancate nel tempo da soluzioni più moderne, ma continuano a rivestire un ruolo cruciale nella valutazione delle caratteristiche elettriche.
Il Q-metro, utilizzato per misurare il fattore di qualità (Q), l'induttanza (L), la resistenza (R) e la capacità (C) di un circuito, rimane uno strumento fondamentale, sebbene non privo di limiti. Il principio di funzionamento del Q-metro è basato sull'analisi delle stime, il che implica che questo strumento non è sempre adatto per misurazioni di precisione elevata. Nonostante ciò, l'automazione del processo di calcolo dei parametri circuitali tramite il Q-metro ha permesso di semplificare il lavoro degli ingegneri, riducendo al minimo gli errori di misura attraverso correzioni appropriate. Tuttavia, l'introduzione degli analizzatori di impedenza ha notevolmente ridotto la popolarità dei Q-metri commerciali.
Un altro strumento utilizzato per la misurazione della potenza elettrica è il wattmetro elettronico, che, pur avendo trovato impiego per oltre un secolo, è stato affiancato da metodi elettronici più sofisticati. Tra questi, il wattmetro a campionamento digitale è uno dei più diffusi, sebbene la maggior parte delle altre tecniche analogiche non sia più in uso. La misurazione della potenza in corrente alternata (AC), infatti, presenta complessità superiori rispetto ai sistemi in corrente continua (DC). In un sistema DC, la potenza può essere calcolata semplicemente moltiplicando la corrente per la tensione (P = V × I), ma nei sistemi AC la situazione è molto più articolata a causa della natura variabile sia della corrente che della tensione.
Nel caso di un sistema AC, la potenza istantanea si ottiene moltiplicando la tensione per la corrente , come espresso dall'equazione:
Per ottenere la potenza media, che rappresenta il lavoro svolto per unità di tempo, si deve integrare la potenza istantanea nel tempo:
Questa equazione si semplifica ulteriormente nel caso di segnali ripetitivi, come quelli presenti nei sistemi a frequenza di 50 Hz o 60 Hz, dove l'integrazione avviene su un periodo :
Per misurare la potenza media in un circuito, quindi, è necessario ottenere la potenza istantanea e successivamente calcolarne la media nel tempo. A tal fine, sono stati sviluppati diversi moltiplicatori elettronici analogici, tra cui il moltiplicatore a divisione del tempo, che oggi rappresenta la soluzione più affidabile per misurazioni ad alta precisione.
Il moltiplicatore log-antilogaritmo, uno dei primi sviluppati, sfrutta le proprietà dei logaritmi per eseguire la moltiplicazione tra due segnali. Applicando il logaritmo ai segnali di tensione e corrente, è possibile sommare i logaritmi e, successivamente, applicare l'antilogaritmo per ottenere il prodotto dei due. Sebbene questa tecnica sia stata innovativa, oggi non è più in uso.
Negli ultimi decenni, la tecnologia ha evoluto la progettazione dei moltiplicatori, introducendo circuiti come il moltiplicatore di transconduttanza di Gilbert. Inventato nel 1968, questo circuito ha rivoluzionato il campo delle misurazioni di potenza, permettendo una maggiore accuratezza con margini di errore ridotti al minimo. I dispositivi come l'AD532 e l'AD632 sono stati utilizzati per la costruzione di wattmetri elettronici ad alta precisione, ma anche questi strumenti sono ormai obsoleti, sostituiti da tecnologie più moderne e versatili.
Nonostante l'evoluzione della tecnologia, il moltiplicatore a divisione del tempo (Time Division Multiplier, TDM), sviluppato da Miyaji Tomata, Takashi Sugiyama e Keiki Yamaguchi, continua a essere utilizzato, soprattutto per la costruzione di wattmetri di riferimento ad alta precisione. Il principio di funzionamento di questo moltiplicatore è basato sull'integrazione dei segnali di ingresso, la cui media viene utilizzata per determinare la potenza istantanea.
Oggi, il TDM è uno degli strumenti più affidabili per la misurazione della potenza nei sistemi AC, grazie alla sua capacità di gestire segnali ad alta frequenza e di ridurre gli errori sistematici. Il circuito prevede l'uso di un amplificatore operazionale (op-amp) configurato come un estensore dell'integratore, che utilizza segnali di riferimento a polarità opposta per garantire l'accuratezza della misurazione.
È fondamentale che chi utilizza questi strumenti comprenda non solo i principi di base della misurazione della potenza, ma anche le limitazioni e le capacità di ogni tecnologia. La comprensione del comportamento dei segnali in un sistema AC, così come la conoscenza degli errori che possono influenzare le misurazioni, sono essenziali per l'uso efficace di questi dispositivi. L'accuratezza nella misurazione della potenza, infatti, dipende non solo dalla qualità dello strumento, ma anche dalla corretta interpretazione e gestione dei segnali di ingresso.
Perché le innovazioni più audaci non riescono a sostituire il passato: la resistenza al cambiamento e il marketing delle nuove idee
Quali sono le tecniche di offloading basate sull'apprendimento automatico per i veicoli connessi?
Come gli Algoritmi di Apprendimento Supervisionato e Non Supervisionato Possono Aiutare nella Rilevazione della Malattia di Alzheimer

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский