Standaryzacja potencjometru DC jest niezbędnym krokiem, który musi być wykonany przed każdorazowym pomiarem, aby zapewnić jego poprawne i precyzyjne działanie. Kluczowym wymogiem jest, aby iloczyn rezystancji wzorcowej (Rp) i prądu wzorcowego (Ip) był równy dokładnie 100,000 mV, co wymaga, by rezystancje Rp miały ściśle zaprojektowaną wartość. Na przykład, jeśli Rp wynosi 10 000 Ω, prąd Ip musi być ustawiony na dokładnie 10,000 mA. Taki proces ustalenia dokładnego prądu nazywamy „standaryzacją potencjometru”.
W praktyce standaryzacja potencjometru studenckiego DC polega na wykorzystaniu źródła napięcia odniesienia o znanej i stałej wartości. Tradycyjnie jest to tzw. „standardowa cela”, np. ogniwo Westona, którego napięcie znamionowe wynosi około 1,0186 V. Proces rozpoczyna się od podłączenia ogniwa do układu, ustawienia odpowiednich pozycji suwaka i regulatorów tak, by potencjometr wskazywał dokładną wartość napięcia ogniwa, składającego się z sumy napięć na segmentach rezystorów i rezystorze pomocniczym. Następnie, za pomocą grubego (RC) i drobnego (RF) potencjometrów regulacyjnych, dobierany jest prąd Ip tak, aby wskazanie galwanometru wyniosło zero. Zero na galwanometrze świadczy o tym, że napięcie na potencjometrze dokładnie odpowiada napięciu ogniwa, a zatem wartość RpIp jest zgodna z wymaganą referencją 100,0 mV. Taki dokładny punkt odniesienia umożliwia późniejsze precyzyjne pomiary napięć.
Ogniwo Westona, wynalezione przez Edwarda Westona w 1892 roku, stało się standardem na niemal sto lat ze względu na swoją stabilność i przewidywalność napięcia terminalnego. Składa się z kadmowo-rtęciowej amalgamaty oraz rtęci, zanurzonej w roztworze siarczanu kadmu, z zastosowaniem pasty siarczanu rtęci i porowatych separatorów. Istnieją dwie wersje ogniwa Westona: nasycone i nienasycone. Nasycone ogniwa zapewniają długoterminową stabilność napięcia, lecz są bardziej podatne na zmiany temperatury, dlatego są preferowane w kontrolowanych środowiskach laboratoryjnych. Nienasycone ogniwa wykazują mniejsze wahania napięcia z powodu temperatury, co czyni je bardziej odpowiednimi do użytku terenowego, gdzie warunki temperaturowe są mniej stabilne, choć cechują się mniejszą stabilnością długoterminową.
Współcześnie, zamiast ogniw chemicznych, korzysta się z bardziej zaawansowanych i stabilnych standardów napięciowych zwanych „wzorcami napięcia odniesienia”. Do najważniejszych należą: wzorzec napięcia Josephsona, odniesienia bandgap oraz wzorzec zenerowski. Wzorzec Josephsona, oparty na zjawisku kwantowym w połączeniach nadprzewodzących, pozwala na wyznaczanie napięcia z niezwykłą dokładnością dzięki ścisłemu powiązaniu napięcia z częstotliwością mikrofalową i stałymi fizycznymi. Jednak ze względu na wymagania techniczne i koszt obsługi, stosowany jest wyłącznie w międzynarodowych laboratoriach standardów.
Wzorce bandgap oparte są na właściwościach półprzewodnikowych i odpowiednio skonstruowanych układach diod, które kompensują wpływ temperatury na napięcie złącza. Dzięki temu uzyskuje się stabilne i niezależne od temperatury napięcie odniesienia, dostępne dziś w wielu układach scalonych. Wzorce zenerowskie, natomiast, wykorzystują charakterystykę diody Zenera, która przy określonym napięciu polaryzacji wstecznej utrzymuje niemal stałe napięcie, choć jego wartość zmienia się pod wpływem temperatury i warunków pracy.
Ważne jest zrozumienie, że pomiar napięcia za pomocą potencjometru opiera się na ścisłej kontroli prądu i napięcia odniesienia, które muszą być starannie dobrane i skalibrowane. Każde odchylenie w tych wartościach prowadzi do błędów pomiarowych. W praktyce technicznej oprócz samych wzorców napięcia niezbędne jest także utrzymanie stabilności środowiska pomiarowego, w tym kontrola temperatury, by ograniczyć wpływ czynników zewnętrznych na pomiary.
Znajomość i prawidłowe zastosowanie tych wzorców oraz procesów standaryzacji pozwala na uzyskanie wysokiej dokładności i powtarzalności pomiarów, co jest fundamentem w kalibracji przyrządów pomiarowych i prowadzeniu badań naukowych wymagających precyzji. Znaczenie standaryzacji i właściwy wybór wzorca napięcia odniesienia rośnie wraz z wymaganiami technicznymi i postępem technologicznym, co przekłada się na konieczność ciągłej modernizacji sprzętu i metod pomiarowych.
Jakie błędy występują w przekładniku prądowym i jak wpływają na pomiar?
Przekładnik prądowy (CT) jest urządzeniem, które umożliwia pomiar dużych prądów poprzez przeliczenie ich na mniejsze wartości, bezpieczne i łatwe do zmierzenia. Podstawową zasadą działania jest przyjęcie, że prąd pierwotny jest równy nominalnemu współczynnikowi przekładni razy wartość skuteczna prądu wtórnego , czyli . Jednak w praktyce różni się od rzeczywistej wartości . Ta różnica wynika z błędów przekładnika, które można podzielić na błąd stosunku (ratio error) oraz błąd fazowy (phase error).
Błąd stosunku polega na tym, że faktyczny stosunek prądów różni się od nominalnego , stosowanego przy obliczeniach. W efekcie wartość wyznaczona przez pomiar wtórnego prądu i nominalnego współczynnika przekładni nie odpowiada dokładnie rzeczywistemu prądowi pierwotnemu. Wyraża się to wzorem na błąd stosunku:
Błąd ten ma kluczowe znaczenie, ponieważ wpływa na dokładność pomiaru prądu, a przez to na wiarygodność dalszych obliczeń mocy i energii w systemie elektroenergetycznym.
Oprócz błędu stosunku istnieje także błąd fazowy, oznaczany jako . Wynika on z niewielkiego przesunięcia fazowego między rzeczywistym prądem pierwotnym a prądem wtórnym odzwierciedlonym na pierwotnym obwodzie . Błąd ten jest wyrażany zwykle w minutach kątowych lub centiradianach i wpływa głównie na dokładność pomiaru mocy i energii, gdyż przesunięcie fazowe prądu względem napięcia powoduje błędy w pomiarze mocy czynnej i biernej.
Błąd stosunku i błąd fazowy są zależne od różnych parametrów i warunków pracy przekładnika, takich jak wartość prądu, kąt przesunięcia fazowego wtórnego obciążenia oraz charakterystyka rdzenia i uzwojeń przekładnika. W praktyce staramy się, by błąd stosunku był jak najmniejszy, często stosując tzw. przekładniki z kompensacją liczby zwojów, gdzie rzeczywisty współczynnik przekładni jest celowo różny (mniejszy) niż nominalny , by minimalizować błąd stosunku przy określonym prądzie obciążenia. Jednak ze względu na nieliniowość prądów magnetyzujących i strat mocy , takie rozwiązania działają poprawnie tylko w wąskim zakresie prądu.
W amerykańskich normach ANSI stosowany jest parametr Ratio Correction Factor (RCF), który wyraża korektę nominalnego współczynnika przekładni w celu uzyskania rzeczywistego stosunku prądów:
gdzie błąd stosunku podawany jest w procentach. RCF jest stosowany do korekcji odczytów, choć nie należy go mylić z innymi współczynnikami korekcyjnymi stosowanymi dla mierników energii czy mocy.
Wyrażenie błędu fazowego można przybliżyć, wykorzystując zależności między prądami strat , prądami magnetyzującymi , kątem przesunięcia fazowego obciążenia i wartością prądu pierwotnego :
co wyraża fazowe przesunięcie wtórnego prądu względem prądu pierwotnego.
Zrozumienie obu typów błędów w przekładnikach prądowych jest fundamentalne dla poprawnego projektowania systemów pomiarowych i analizy danych pomiarowych. Błędy te przekładają się bezpośrednio na dokładność pomiarów energii i mocy, a w konsekwencji na rozliczenia i kontrolę systemów elektroenergetycznych. Przekładniki prądowe muszą być więc starannie dobierane i kalibrowane, a ich charakterystyki błędów dokładnie uwzględniane przy interpretacji wyników pomiarów.
Istotne jest również uwzględnienie wpływu warunków zewnętrznych, takich jak temperatura, częstotliwość czy rodzaj obciążenia, które mogą zmieniać charakterystykę błędów przekładnika. Dodatkowo, w praktyce często stosuje się wykresy i tabele przedstawiające zmiany błędu stosunku i fazowego w funkcji prądu obciążenia, co pozwala na lepsze modelowanie i kompensację błędów w czasie eksploatacji urządzeń pomiarowych. Świadomość i znajomość tych zjawisk pozwala na osiągnięcie wysokiej precyzji pomiarów, niezbędnej do efektywnego zarządzania systemami energetycznymi.
Jak definiuje się punkt kolanowy i jakie są konsekwencje obwodu otwartego w przekładniku prądowym?
Punkt kolanowy charakteryzuje się na dynamicznej krzywej B-H jako moment, w którym 10% wzrost indukcji magnetycznej B powoduje aż 50% wzrost natężenia pola magnetycznego H. Ta właściwość obrazuje nieliniowość magnetyczną rdzenia, co jest kluczowe przy projektowaniu przekładników prądowych. Projektowanie takiego przekładnika jest złożonym procesem wymagającym wielu iteracji, by osiągnąć optymalny efekt, minimalizujący błędy pomiarowe. Jednym z wniosków jest to, że przekładnik prądowy wykazuje najmniejsze błędy, gdy wartość impedancji obciążenia Z_B jest zerowa, czyli gdy obwód wtórny jest zwarte.
Istotnym aspektem jest zachowanie przekładnika prądowego przy otwartym obwodzie wtórnym, gdy prąd pierwotny nie jest zerowy. W takiej sytuacji na zaciskach wtórnych pojawia się bardzo wysokie napięcie, co stanowi poważne zagrożenie bezpieczeństwa. Równoważny obwód przekładnika z otwartym obwodem wtórnym można rozpatrywać jako zasilany źródłem prądu przemiennego, gdyż prądy wtórne są zerowe, a prąd pierwotny staje się prądem wzbudzenia. To powoduje saturację rdzenia nawet przy niewielkich prądach pierwotnych, gdyż zmiana strumienia magnetycznego (dφ/dt) blisko zera wywołuje gwałtowny wzrost wartości napięcia wtórnego. W rezultacie napięcie to może sięgać kilkudziesięciu kilowoltów, co może doprowadzić do przebicia dielektrycznego i poważnych uszkodzeń zarówno przekładnika, jak i urządzeń połączonych w obwodzie wtórnym. Dlatego sekundarny obwód przekładnika nigdy nie powinien pozostawać otwarty — nawet w trakcie przechowywania przekładnika wtórne zaciski powinny być zwarte.
Przekładniki prądowe stosowane na liniach wysokiego napięcia muszą posiadać odpowiednią izolację między uzwojeniem pierwotnym a wtórnym. Często montowane są na izolatorach, a uzwojenia wtórne sprowadza się na dół dla wygody podłączenia. Czasem stosuje się konstrukcje dwustopniowe, gdzie pierwotny przekładnik jest sprzężony wtórnie z kolejnym, co pozwala na lepszą izolację i zwiększa bezpieczeństwo. Izolacja może być zarówno sucha, jak i olejowa, w zależności od zastosowania i wymagań.
Ocena błędów przekładnika prądowego przeprowadzana jest zazwyczaj metodą porównawczą, gdyż metoda absolutna jest zbyt skomplikowana i niepraktyczna. Metoda porównawcza polega na zestawieniu badanego przekładnika z wzorcowym o niemal zerowych błędach. W obwodzie wtórnym obu przekładników prądy połączone są szeregowo, a różnicowy prąd mierzony jest przez impedancję pomiarową. Analiza fazorów tych prądów pozwala określić błędy stosunku i fazy badanego urządzenia.
Do pomiaru błędów stosowano różne mostki, takie jak mostki Hohle’a, Pitch-Elliot czy Arnolda. Mostek Arnolda umożliwia wyważenie prądu różnicowego przez dopasowanie składowych w fazie i kwadraturze względem prądu wzorcowego. W praktyce jego pokrętła są skalowane bezpośrednio na wartości błędów, co upraszcza kalibrację. Współcześnie metody te zostały wypierane przez układy oparte na detektorach fazowych, które umożliwiają bezpośrednie pomiary błędów przy większej precyzji i prostocie pomiaru.
Blokowy schemat detektora fazowego wykorzystuje przetworniki prądowe na napięciowe oraz zestaw trzech detektorów fazowych (dwa in-phase i jeden kwadraturowy). Dzięki temu możliwe jest rozdzielenie składowych błędów na fazę i stosunek, co pozwala na dokładne określenie charakterystyki przekładnika i jego ewentualnych odchyleń od wzorca.
Ważne jest zrozumienie, że przekładnik prądowy jest elementem układu pomiarowego, którego bezpieczeństwo i dokładność zależą nie tylko od poprawnej konstrukcji, ale również od właściwego użytkowania. Niewłaściwe obchodzenie się z obwodem wtórnym, zwłaszcza pozostawienie go otwartym pod obciążeniem, może spowodować nieodwracalne uszkodzenia oraz zagrożenie dla operatorów i sprzętu. Izolacja i odpowiednie warunki montażu są równie istotne, zwłaszcza w zastosowaniach wysokiego napięcia, gdzie ryzyko uszkodzeń jest większe.
Ponadto, pomiary błędów przekładników wymagają precyzyjnych urządzeń i odpowiednich metod, aby uniknąć propagacji błędów do systemów pomiarowych i zabezpieczeniowych. Znajomość metod testowania i ich ograniczeń pozwala na świadome podejście do doboru i eksploatacji tych urządzeń, co ma kluczowe znaczenie dla niezawodności i bezpieczeństwa całego systemu elektroenergetycznego.
Jak działają cyfrowe mierniki RMS oraz pomiary prądu i rezystancji za pomocą DVM?
Cyfrowe mierniki RMS (Root Mean Square) różnią się od tradycyjnych mierników typu PMMC (Permanent Magnet Moving Coil) i prostownikowych przede wszystkim sposobem filtrowania składowych harmonicznych. W miernikach PMMC sama cewka filtruje harmoniczne po prostowaniu sygnału, podczas gdy w prostownikowych miernikach cyfrowych (DVM) stosuje się dodatkowy filtr dolnoprzepustowy R–C. Prawdziwe mierniki RMS korzystają natomiast z analogowego mnożnika i integratora, co pozwala uzyskać napięcie stałe proporcjonalne do wartości skutecznej napięcia przemiennego.
Schemat działania miernika RMS opiera się na tym, że mnożnik analogowy przyjmuje na oba wejścia ten sam sygnał AC, co daje na wyjściu sygnał proporcjonalny do kwadratu napięcia. Następnie integrator (lub filtr dolnoprzepustowy o bardzo niskiej częstotliwości odcięcia) wyciąga średnią wartość tego sygnału, a po odpowiednim przekształceniu otrzymujemy wynik będący wartością skuteczną napięcia AC. W praktyce integrator jest często zastępowany przez specjalizowane układy scalone, takie jak LTC1966 (Linear Technology), LH009 (National Semiconductors), MX636 (Maxim Semiconductors) czy AD736 (Analog Devices), które realizują konwersję RMS na DC.
Przy pomiarze prądu przemiennego za pomocą DVM najpierw przetwarza się prąd na proporcjonalne napięcie za pomocą rezystora wzorcowego Rs, a następnie mierzy to napięcie. Tradycyjny miernik prostownikowy do prądu AC nie jest praktyczny, gdyż generuje spadek napięcia około 1,4 V, co wpływa na dokładność pomiaru. Dlatego stosuje się precyzyjne prostowniki lub prawdziwe mierniki RMS, które poprawnie odczytują wartości zarówno prądów sinusoidalnych, jak i niesinusoidalnych. Mierniki RMS wyłączają konwerter RMS na DC podczas pomiaru wartości stałych, aby nie pogarszać dokładności odczytu DC.
Pomiar rezystancji w DVM realizuje się poprzez dodanie źródła prądu o stałej wartości Is. Przy stałym prądzie wartość napięcia na badanej rezystancji Rx jest proporcjonalna do jej wartości, co umożliwia konwersję napięcia na wartość rezystancji. Dla różnych zakresów rezystancji stosuje się odpowiednie wartości prądu, co pozwala na pomiar od kilku omów do megaomów. Przykładem źródła prądu jest popularny układ Howlanda, który zapewnia stały prąd niezależny od rezystancji obciążenia. Dzięki temu, nawet przy zmianach wartości Rx, prąd jest stały, co poprawia dokładność pomiaru.
Dodatkowo, wiele cyfrowych mierników ma funkcję testowania ciągłości przewodów (kontinuity), wykorzystując pomiar rezystancji na najniższym zakresie. W przypadku przerwania przewodu, miernik wskazuje bardzo wysoką rezystancję lub sygnalizuje przerwę dźwiękowo. Funkcja ta jest nieoceniona podczas diagnozy uszkodzonych połączeń czy ścieżek na płytkach drukowanych.
Testowanie diod przy pomocy DVM również wykorzystuje stały prąd z źródła. Pomiar polega na odczycie spadku napięcia na diodzie przy jej polaryzacji przewodzenia i blokowania. Normalnie działająca dioda w kierunku przewodzenia pokazuje charakterystyczny spadek napięcia (np. 0,7 V dla diody krzemowej lub 1,8–3,3 V dla diody LED), a w kierunku zaporowym powoduje otwarty obwód i przeciążenie miernika. Uszkodzenia diody objawiają się jako stałe przeciążenie (przerwa) lub bliskie zeru napięcie (zwarcie) w obu kierunkach polaryzacji. Ta funkcja jest standardowo zintegrowana z zakresami pomiaru rezystancji.
Podczas korzystania z DVM warto pamiętać, że wyświetlacze najczęściej pokazują wartości bez znaku plusa dla wartości dodatnich, natomiast wartości ujemne sygnalizowane są specjalnym symbolem na wyświetlaczu. Takie rozwiązanie ułatwia szybkie odczytywanie wyników pomiarów bez dodatkowych znaków.
Znajomość zasady działania i ograniczeń różnych typów cyfrowych mierników RMS, precyzyjnych prostowników oraz metod pomiaru prądu i rezystancji pozwala na świadome wybieranie odpowiedniego narzędzia do danego zadania oraz na prawidłową interpretację wyników. Warto zwracać uwagę na charakterystykę mierzonych sygnałów – czy są sinusoidalne, czy mają zniekształcenia harmoniczne, co może znacząco wpłynąć na odczyty mierników prostownikowych. Ponadto, w zastosowaniach wymagających najwyższej dokładności, należy uwzględniać wpływ spadków napięć, charakterystyk źródeł prądu i poprawność kalibracji układów pomiarowych.
Jak działa przetwornik cyfrowo-analogowy (DAC) i dlaczego jest kluczowy w systemach cyfrowo-analogowych?
Przetwornik cyfrowo-analogowy (DAC) pełni fundamentalną rolę w łączeniu świata cyfrowego z analogowym. Jego zadaniem jest przekształcenie sygnału cyfrowego, reprezentowanego przez ciąg bitów, na odpowiedni sygnał analogowy, który można następnie wykorzystać w układach analogowych lub audio. W praktyce DAC jest nieodzowny w takich aplikacjach jak odtwarzanie dźwięku w systemach komunikacji cyfrowej, gdzie sygnały mowy czy muzyki przetwarzane cyfrowo muszą zostać zrekonstruowane w formie analogowej, aby były słyszalne dla człowieka.
Wyróżniamy różne techniki implementacji DAC, spośród których najczęściej stosowane są: przetworniki oparte na rezystorach ważonych (Weighted R DAC) oraz przetworniki typu drabinkowego R-2R (R-2R Ladder DAC). Choć Weighted R DAC jest koncepcją prostą i intuicyjną, ze względu na konieczność stosowania rezystorów o wartościach zmieniających się wykładniczo (od R do R * 2^(N−1)) dla N-bitowego przetwornika, ich praktyczna realizacja jest bardzo utrudniona przy większych rozdzielczościach (powyżej 10 bitów). Z tego powodu są rzadko stosowane w nowoczesnych układach scalonych.
Przetwornik R-2R ladder, z kolei, bazuje na jednorodnej sieci rezystorów o dwóch wartościach: R i 2R, ułożonych w drabinkę. Taka konfiguracja pozwala na znacznie łatwiejszą integrację i precyzyjne odwzorowanie wartości analogowych przy zmieniających się bitach wejściowych. Każdy bit steruje odpowiednim przełącznikiem SPDT, który łączy odpowiedni punkt sieci do masy lub do wirtualnej masy wzmacniacza operacyjnego, który pełni funkcję konwertera prądowo-napięciowego. Dzięki temu wyjściowe napięcie DAC jest proporcjonalne do cyfrowej wartości wejściowej, a zmiana każdego bitu o jeden skutkuje podwojeniem lub zmniejszeniem odpowiedniego prądu w sieci.
Ważnym aspektem jest działanie wzmacniacza operacyjnego jako odwracającego sumatora prądów, który sumuje prądy z poszczególnych gałęzi drabinki i przekształca je w napięcie wyjściowe. Ta architektura pozwala na stabilne i liniowe odwzorowanie sygnału cyfrowego w analogowy.
Praktyczna realizacja DAC wymaga zwrócenia uwagi na parametry takie jak rozdzielczość (liczba bitów), liniowość i zakres napięć wyjściowych. Dodatkowo, efektywność DAC jest często oceniana przez parametry takie jak ENOB (efektywna liczba bitów), która uwzględnia nieidealności, takie jak szumy i zniekształcenia, opisane przez współczynnik SINAD. ENOB jest szczególnie ważna, ponieważ rzeczywiste układy ADC i DAC nigdy nie osiągają idealnej rozdzielczości, a jego wartość maleje wraz ze wzrostem częstotliwości sygnału.
Podczas projektowania systemów cyfrowo-analogowych niezbędne jest także rozważenie wpływu szumów i zniekształceń oraz ich ograniczeń w zastosowaniach wymagających wysokiej precyzji i jakości sygnału. Znajomość charakterystyki DAC oraz umiejętność doboru odpowiedniego typu przetwornika do konkretnego zastosowania decyduje o efektywności całego systemu.
Kluczowym jest zrozumienie, że technologia DAC to nie tylko kwestia wyboru odpowiedniego układu, ale również optymalizacji i kalibracji elementów pasywnych oraz wzmacniaczy operacyjnych, które determinują precyzję i stabilność wyjściowego sygnału analogowego. Współczesne rozwiązania DAC często integrują dodatkowe obwody korekcyjne i kompensujące, które minimalizują wpływ niedoskonałości komponentów.
Znaczenie DAC wykracza poza prostą konwersję sygnału – jest to pomost, dzięki któremu cyfrowe systemy mogą współpracować z analogową rzeczywistością, umożliwiając zarówno odbiór, jak i generowanie analogowych sygnałów sterujących czy audio.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский