Nella misurazione, è fondamentale considerare gli errori che possono sorgere a causa della risoluzione dell'instrumento utilizzato. La risoluzione di uno strumento di misura è legata al passo più piccolo che lo strumento può rilevare. In termini pratici, la limitazione della risoluzione può introdurre un errore relativo peggiore che è pari alla metà della risoluzione stessa. Questo significa che l'errore massimo che può essere introdotto dalla risoluzione è espresso come:
Tale errore può manifestarsi come una lettura che potrebbe risultare superiore o inferiore rispetto al valore vero. Questo errore è legato alla risoluzione dell'apparecchiatura e dipende dalla capacità dell'instrumento di rilevare incrementi minimi del valore misurato.
Un altro aspetto importante da considerare è l'errore strumentale. Un esempio di errore strumentale si verifica quando un misuratore non si comporta come previsto, anche se la risoluzione è sufficientemente alta. Per esempio, se un amperometro è calibrato per leggere esattamente 100 mA alla scala di 100 mA, ma a causa di una variazione nei componenti interni come la densità del flusso magnetico o la costante della molla, il dispositivo misura erroneamente 99 mA o 101 mA, l'errore risultante sarà un errore strumentale.
Questi errori derivano dalla naturale variabilità nei componenti fisici che costituiscono lo strumento. Per esempio, se un magnete permanente perde la sua densità di flusso nel corso del tempo, la lettura dello strumento può diminuire anche se l'oggetto in esame non ha subito modifiche. Questo errore è legato alla variazione nel valore di , che causa una deflessione diversa rispetto a quella prevista. Il produttore solitamente calcola questa variazione e stabilisce una tolleranza, che viene espressa come errore massimo relativo al valore pieno della scala:
Questa tolleranza si riferisce a un "errore di piena scala" e viene utilizzata per determinare l'accuratezza di uno strumento. Ad esempio, se un amperometro di classe 1 ha una piena scala di 100 mA e legge 95 mA, l'errore massimo potrebbe essere ± 1% della piena scala, cioè ± 1 mA, il che porta ad un errore di lettura di circa 1,05%. Analogamente, se la misurazione riguarda una tensione con un voltmetro, l'errore si calcola con lo stesso principio, ma la percentuale varierà a seconda della classe di accuratezza specificata.
Con l'introduzione degli strumenti digitali, l'approccio alla risoluzione e all'errore è cambiato. Gli strumenti digitali spesso definiscono la risoluzione come il numero di "conti" o cifre del display. Ad esempio, un voltmetro digitale a 3½ cifre ha una risoluzione di 1 su 2000, il che significa che può misurare valori da 0000 a 1999. La risoluzione, quindi, è legata alla capacità dello strumento di distinguere incrementi di valore e viene espressa in termini di conteggi.
Quando si definiscono gli errori per uno strumento digitale, questi possono essere espressi come una combinazione di un errore percentuale relativo al valore misurato e un certo numero di conteggi. Per esempio, un voltmetro digitale con una piena scala di 200 mV e un errore del ±1% della piena scala più 10 conteggi, avrà un errore massimo di ±3 mV. Allo stesso modo, se la misurazione è 1 V, l'errore si calcola come una combinazione dell'errore percentuale e dei conteggi, arrivando a un errore totale di ± 6 mV.
In generale, è importante notare che gli errori strumentali sono "calcolabili e correggibili", se si dispone delle informazioni adeguate. Ad esempio, un produttore potrebbe fornire una stima degli errori che si possono verificare con il proprio strumento, permettendo all'utente di capire quali valori potrebbero essere più suscettibili a errori in base alla lettura effettiva.
Quando si utilizza un misuratore, è sempre preferibile effettuare la lettura il più vicino possibile al valore di piena scala, poiché questo minimizza l'impatto degli errori strumentali. Se la lettura viene effettuata a metà scala o a un quarto della scala, l'errore potrebbe essere maggiore. Questo principio è particolarmente importante per gli strumenti analogici, dove l'errore tende ad aumentare man mano che si scende verso valori più bassi della scala.
L'accuratezza e la precisione di uno strumento sono determinati non solo dalla risoluzione e dall'errore strumentale, ma anche dalla capacità dello strumento di compensare e correggere eventuali variazioni nel tempo o a causa di cambiamenti nei componenti interni. Gli strumenti digitali offrono il vantaggio di una maggiore coerenza nelle letture, ma sono comunque soggetti a errori sistematici legati alla loro progettazione e calibrazione.
Come limitare la corrente secondaria nei trasformatori di corrente per evitare danni e malfunzionamenti
Nel contesto dei trasformatori di corrente, la gestione della corrente secondaria è cruciale per evitare danni agli strumenti di misura e garantire la sicurezza operativa. Quando si verifica un guasto, la corrente primaria può raggiungere valori molto alti, e la corrente secondaria, se non adeguatamente limitata, seguirà questo aumento. Ad esempio, utilizzando un trasformatore di corrente 100/1 A, se la corrente primaria durante un guasto raggiunge 1000 A, la corrente secondaria aumenterà a 10 A. Inviano 10 A attraverso un amperometro con scala 1 A, si rischia non solo di danneggiare irreparabilmente l'amperometro, ma anche di causare pericoli per le persone nelle vicinanze. Per questo motivo, è fondamentale che i trasformatori di corrente per misurazioni o contatori limitino il valore massimo che la corrente secondaria può raggiungere, proprio per evitare situazioni pericolose.
Il fattore di sicurezza dello strumento, o "Instrument Safety Factor" (ISF), è il parametro che stabilisce tale limite. Ad esempio, in un trasformatore di corrente 100/1 A con un ISF di 2,5, la corrente secondaria non supererà mai i 2,5 A, indipendentemente dalla corrente primaria (anche in caso di guasto). Questo concetto è cruciale per la progettazione e l'uso dei trasformatori di corrente, in quanto permette di evitare danni agli strumenti e proteggere gli operatori. Il valore dell'ISF varia a seconda delle specifiche del trasformatore e del tipo di applicazione, come si può vedere da esempi di specifiche comuni come (a) 100/1 A, 5VA, UPF, CT LT con ISF 3.0, o (b) 1000/5 A, 10 VA, 0.8 lag, 11 kV, CT primario "bar" con ISF 3.5.
Nel caso del trasformatore di corrente con rapporto di trasformazione 1000/5 A, si utilizza un "primario a barra", in cui la corrente primaria di 1000 A è ridotta a 5 A mediante una coppia di valori di N1 e N2. L'uso di N1 = 1 e N2 = 200, ad esempio, implica che il primario è una barra di conduttore che attraversa il nucleo del trasformatore, solitamente progettata con una sezione rettangolare per gestire l'effetto pelle. Questo tipo di trasformatore di corrente è adatto per correnti molto elevate e presenta una costruzione robusta, ma richiede una progettazione accurata per evitare sovraccarichi.
Al contrario, i trasformatori di corrente per protezione sono progettati per affrontare condizioni in cui la corrente primaria supera più volte (ad esempio, y volte) il valore nominale. Questi trasformatori devono essere in grado di misurare correnti molto elevate durante i guasti, come nel caso di un cortocircuito, e garantire l'affidabilità dell'interruzione del sistema. La caratteristica principale dei trasformatori di corrente di protezione è che devono funzionare anche quando la corrente primaria è molto più alta del valore nominale, e quindi il loro design deve essere robusto e capace di gestire questi aumenti senza compromettere la sicurezza. La gamma di lavoro di un trasformatore di corrente di protezione è definita da un fattore y che rappresenta la corrente massima che il trasformatore è in grado di gestire rispetto alla corrente nominale del sistema di potenza.
Per esempio, in un trasformatore di corrente di protezione 200/1 A, se si prevede che funzioni fino a una corrente primaria di 1000 A, il fattore y sarebbe 5. Questo significa che il trasformatore dovrà essere progettato per gestire correnti fino a 5 volte il valore nominale, ma con un errore complessivo limitato. Questo errore viene specificato come un errore composito, che può essere espresso in percentuale, come nel caso della classe 5Py, che ha un errore di rapporto massimo di ±1% e un errore composito massimo del ±5% a una corrente di 5 volte il valore nominale.
I trasformatori di corrente di protezione sono generalmente più ingombranti rispetto ai trasformatori di misura, poiché devono essere costruiti per gestire correnti elevate senza compromettere la sicurezza operativa. Le specifiche standard per questi trasformatori includono limiti di errore per la corrente nominale e per la corrente massima, con categorie come 5Py, 10Py e 15Py, che determinano l'accuratezza e i limiti di errore per le diverse classi di protezione. Le norme come la IS/IEC stabiliscono i limiti di errore per ciascuna classe, come il limite di errore composito ≤±1% alla corrente nominale e il limite di errore composito ≤±5% alla corrente massima, per esempio, nel caso di un trasformatore di corrente 500/5 A, 15 VA, 5P10.
Infine, i trasformatori di corrente standard sono utilizzati per testare e calibrare altri trasformatori di corrente, confrontandone gli errori di rapporto e fase tramite il "metodo di confronto". Questi trasformatori sono progettati per avere errori di rapporto e fase molto piccoli, il che richiede tecniche di progettazione specifiche, come la riduzione o la compensazione della corrente di eccitazione.
In sintesi, la progettazione dei trasformatori di corrente, sia per misurazione che per protezione, deve considerare attentamente la gestione delle correnti elevate per evitare danni e garantire la sicurezza. La conoscenza dei fattori di sicurezza e delle classi di protezione è essenziale per scegliere il trasformatore giusto per ogni applicazione, tenendo conto dei limiti di errore e delle caratteristiche di resistenza alle sovracorrenti.
Come funziona un oscilloscopio a memoria digitale: un'analisi approfondita della conversione analogico-digitale
Il concetto di acquisizione dei dati digitali è alla base di numerosi strumenti moderni, tra cui gli oscilloscopi a memoria digitale (DSO), che sono diventati il riferimento per la misurazione e l'analisi dei segnali elettronici. Contrariamente agli oscilloscopi a tubo a raggi catodici (CRO), oggi obsoleti, i DSO sono progettati per offrire una precisione e una flessibilità superiori nel trattamento dei segnali analogici, tramite un processo che converte il segnale analogico in campioni digitali che vengono poi immagazzinati in memoria per un'analisi più dettagliata.
Il processo di conversione di un segnale analogico in digitale non è semplice e richiede l'uso di tecniche e componenti avanzati. Prima che un segnale analogico venga digitalizzato, è fondamentale che esso venga condizionato e filtrato. Il segnale analogico in ingresso viene amplificato o ridotto in ampiezza per adattarsi all'intervallo ottimale dell'ADC (convertitore analogico-digitale), quindi viene sottoposto a un filtro passa-basso per rimuovere eventuali componenti ad alta frequenza che potrebbero introdurre errori durante la digitalizzazione, come l'aliasing. Questo processo è regolato da un filtro anti-aliasing che precede l'ADC e ne garantisce l'affidabilità.
Il principio alla base della digitalizzazione di un segnale analogico è che le informazioni relative alle frequenze presenti nel segnale devono essere correttamente catturate dai campioni digitali. Per fare ciò, è necessario che la frequenza di campionamento sia superiore al doppio della frequenza massima contenuta nel segnale analogico, come affermato dal teorema di campionamento di Nyquist-Shannon. Se il segnale viene campionato a una frequenza inferiore, si verifica un errore noto come aliasing, dove le frequenze alte possono "riprodursi" come frequenze più basse, alterando il segnale originale e rendendo impossibile la sua corretta ricostruzione.
Il campionamento deve quindi essere eseguito con una frequenza di campionamento sufficiente per evitare tali errori, il che comporta l'uso di ADC con alte velocità di campionamento. L'ADC, essendo il cuore del processo di conversione, trasforma il segnale analogico in una serie di campioni digitali che vengono poi immagazzinati in memoria. Per garantire un'analisi accurata dei segnali, la maggior parte degli oscilloscopi digitali moderni utilizza ADC di tipo FLASH, che offrono alte velocità di campionamento (fino a diversi gigasample al secondo) e risoluzioni variabili, generalmente da 8 bit fino a 12 bit.
Una volta che i dati digitali sono stati acquisiti, vengono trasferiti in memoria e mostrati sul display tramite l'unità di elaborazione digitale (DPU), che gestisce sia il processore centrale (CPU) che la memoria di programma e i controlli periferici. Il DPU si occupa della gestione del flusso di dati in tempo reale e consente di visualizzare il segnale sotto forma di curva nel dominio del tempo. Grazie a questa struttura, un oscilloscopio a memoria digitale è in grado di rappresentare e analizzare segnali complessi, offrendo una visione chiara e precisa di come vari segnali si comportano nel tempo.
Un altro aspetto importante del DSO è il suo multiplexer analogico, che consente di acquisire simultaneamente segnali da più canali. Ogni canale ha il proprio amplificatore Y (Y-amplifier), che è responsabile dell’amplificazione del segnale prima che esso venga campionato. In un DSO a più canali, ogni canale avrà il proprio amplificatore Y (Y1, Y2, Y3, Y4, ecc.), e ognuno di questi avrà la possibilità di essere accoppiato direttamente (DC) o tramite accoppiamento AC, utilizzando un condensatore interno. La configurazione degli ingressi è standardizzata con una impedenza di 1 MΩ in parallelo con una capacità di 47 pF, il che permette di utilizzare le stesse sonde di un CRO con l'oscilloscopio digitale senza bisogno di modifiche.
L'uso di un filtro anti-aliasing è fondamentale per prevenire la distorsione del segnale analogico durante la conversione. Esso ha il compito di attenuare le frequenze superiori alla metà della frequenza di campionamento, ossia la frequenza di Nyquist. Il filtro passa-basso viene posizionato immediatamente prima dell'ADC, in modo da evitare che le frequenze indesiderate vengano campionate e introdurre così errori nel segnale digitalizzato.
Inoltre, per sistemi ad alta velocità di campionamento, come quelli che utilizzano ADC con velocità di campionamento nell'ordine dei gigasample al secondo, diventa fondamentale l'uso di tecnologie come il Direct Memory Access (DMA). Questo permette di trasferire direttamente i dati campionati in memoria, senza l'intervento del processore centrale, che non sarebbe in grado di gestire la velocità di acquisizione a causa del sovraccarico computazionale.
In definitiva, gli oscilloscopi a memoria digitale sono strumenti estremamente sofisticati, che permettono di analizzare segnali analogici con grande precisione. La loro capacità di catturare e visualizzare segnali in tempo reale, insieme alla gestione avanzata dei dati campionati, li rende indispensabili in numerosi settori, dalla progettazione elettronica alla diagnostica dei sistemi elettronici.
La comprensione dei principi di campionamento, conversione e visualizzazione dei segnali è essenziale non solo per operare efficacemente con un DSO, ma anche per evitare errori comuni come l'aliasing e per ottimizzare le prestazioni degli strumenti nelle applicazioni più esigenti.
Quali sono le sfide principali e le opportunità future nell’applicazione dell'apprendimento supervisionato per la rilevazione del Parkinson?
Come si misura la corrosione nei metalli: metodi basati sulla resistenza elettrica e l’elettrochimica
Come implementare la sicurezza nelle API Minimal di ASP.NET Core
Come la Teoria del Funzionale di Densità Ha Rivoluzionato la Chimica e la Scienza dei Materiali

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский