W klasycznych metodach kalibracyjnych, takich jak technika pojedynczego wzorca czy rozwiązania bracketingowe, zakłada się zgodność matrycy próbki badanej z matrycą wzorców kalibracyjnych. To założenie, choć często przyjmowane bezrefleksyjnie, prowadzi do znaczących błędów w przypadku, gdy skład matrycy próbki różni się od tej we wzorcu. Przykładem tego może być rozbieżność wyników uzyskanych metodą pojedynczego wzorca (49,0 mg/dm³) i metodą krzywej kalibracyjnej (19,7 mg/dm³) dla tej samej próbki. Tak istotna różnica wynika z niedopasowania sygnału między próbką a wzorcem, co unieważnia wiarygodność prostszych metod kalibracyjnych w kontekście złożonych matryc.

Technika dodawania wzorca (standard addition technique) eliminuje to ryzyko poprzez kalibrację wewnętrzną, prowadzoną bezpośrednio w próbce. W praktyce oznacza to, że do badanej próbki dodaje się znaną ilość wzorca analitu, a następnie mierzy sygnał zarówno przed, jak i po dodaniu. W oparciu o regresję liniową wyznacza się zawartość analitu w próbce, zakładając, że przyrost sygnału jest proporcjonalny do ilości dodanego wzorca. Kluczowe jest przypisanie wartości zero próbce przed dodaniem wzorca na osi stężeń – ten punkt stanowi fundament regresji. Istotnym ograniczeniem tej metody jest to, że często opiera się ona na dwóch punktach pomiarowych, co obniża precyzję wyznaczenia i czyni wynik bardziej podatnym na przypadkowe błędy.

W celu zwiększenia dokładności stosuje się odmianę tej techniki – technikę wielokrotnego dodawania wzorca. Polega ona na kilkukrotnym dodaniu tej samej objętości roztworu wzorcowego do jednej próbki i pomiarze sygnału po każdej kolejnej modyfikacji. Następnie sporządza się wykres zależności sygnału od objętości dodanego wzorca i przeprowadza regresję liniową, dzięki której można wyznaczyć stężenie analitu w próbce. Zaletą tej metody jest wyraźne ograniczenie wpływu błędu losowego i znaczne zwiększenie wiarygodności końcowego wyniku.

W omawianym przykładzie, po pięciokrotnym dodaniu 1,3 cm³ roztworu wzorcowego (5000 mg/dm³) do próbki o objętości 100 cm³, uzyskano sygnały od 53,23 do 331,5 jednostek. Regresja wykazała nachylenie 43,05 oraz wyraz wolny równy 51,3. Obliczona zawartość analitu wyniosła 59,6 mg/dm³ – wartość znacznie bardziej wiarygodna w kontekście powtarzalności i zgodności z innymi technikami bardziej zaawansowanej kalibracji.

Podobną zasadę przyjmuje się w przypadku techniki rozcieńczania lub wzbogacania próbki, gdzie do pierwotnej próbki dodaje się określoną ilość wzorca lub rozpuszczalnika. Metoda ta pozwala dostosować stężenie analitu w próbce do poziomu zbliżonego do wzorca, co skutkuje wyraźną poprawą dokładności oznaczenia. Niezbędne jest jednak dodatkowe oznaczenie wzorca, gdyż nieznana relacja między zmiennymi uniemożliwia bezpośrednie zastosowanie regresji bez weryfikacji.

W przypadku techniki dodawania wzorca, kluczowe znaczenie ma przestrzeganie zasad metodycznych. Dodana ilość wzorca powinna zwiększyć sygnał co najmniej o 50%, ale nie więcej niż o 150% względem sygnału pierwotnego. Równocześnie należy zachować integralność matrycy próbki – objętość lub masa dodanego wzorca nie może modyfikować jej składu chemicznego w sposób, który wpłynąłby na wynik pomiaru. Warunkiem koniecznym jest także zapewnienie identycznego wiązania analitu wzorcowego i tego obecnego w próbce z matrycą – dlatego konieczny jest czas na osiągnięcie równowagi pomiędzy nimi.

Alternatywnym podejściem jest technika odejmowania, w której do próbki wprowadza się czynnik reagujący z analitem, przekształcający go w związek nieaktywny względem detektora. Ponieważ ilość czynnika jest znana, możliwe jest obliczenie ubytku analitu, a więc również jego pierwotnej zawartości w próbce. Metoda ta znajduje zastosowanie w przypadkach, gdzie dodanie wzorca byłoby niemożliwe lub niewskazane z punktu widzenia stabilności próbki.

Technika wewnętrznego wzorca, oparta na pomiarze stosunku sygnału analitu do sygnału substa

Jakie są podstawy i zastosowanie testów statystycznych porównujących wariancje?

Test chi-kwadrat (χ²) służy do weryfikacji, czy wariancja badanej serii wyników różni się istotnie statystycznie od ustalonej wartości. Podstawową hipotezą zerową (Ho) jest założenie, że obliczona wariancja nie odbiega znacząco od wartości odniesienia, podczas gdy hipoteza alternatywna (H1) wskazuje na statystycznie istotną różnicę. Wymogiem testu jest normalny rozkład wyników. W toku analizy oblicza się odchylenie standardowe, a następnie statystykę χ² według wzoru uwzględniającego liczbę wyników i porównuje z wartością krytyczną dla danego poziomu istotności i stopni swobody. Jeśli obliczona wartość χ² nie przekracza wartości krytycznej, hipoteza zerowa zostaje przyjęta – wariancja jest zgodna z wartością referencyjną.

Test F Snedecora umożliwia porównanie wariancji dwóch zbiorów wyników. Hipoteza zerowa zakłada brak istotnych różnic między wariancjami, natomiast alternatywna ich obecność. Warunkiem stosowania jest również normalność rozkładu wyników. Oblicza się odchylenia standardowe obu serii i wyznacza stosunek ich kwadratów – F zawsze powinno być większe od 1, dobierając licznik i mianownik odpowiednio. Porównanie wartości testu z wartością krytyczną decyduje o przyjęciu lub odrzuceniu hipotezy zerowej.

Test Hartleya Fmax pozwala na ocenę zgodności wariancji w wielu seriach wyników, z warunkiem jednakowej liczby obserwacji w każdej serii, liczby obserwacji większej niż 2 oraz liczby serii nie większej niż 11. Obliczana jest wartość Fmax jako stosunek największego i najmniejszego odchylenia standardowego w badanych zestawach. W przypadku istotnej różnorodności wyników stosuje się współczynnik zmienności (CV) zamiast odchylenia standardowego. Decyzję podejmuje się na podstawie porównania z wartością krytyczną.

Test Bartletta umożliwia porównanie wariancji wielu zestawów wyników o liczbie obserwacji większej niż 2. Wykorzystuje się w nim skomplikowaną statystykę Q, która bierze pod uwagę logarytmy odchyleń standardowych i liczebności poszczególnych serii, korygowaną współczynnikiem c. Krytyczna wartość χ² decyduje o przyjęciu bądź odrzuceniu hipotezy zerowej o równości wariancji.

Test Morgana dotyczy porównania wariancji dwóch powiązanych (skorelowanych) zestawów wyników. Wymaga co najmniej trzech par wyników. Obliczany jest współczynnik regresji r, na podstawie którego wyznaczany jest parametr L, a następnie wartość t. Test ten uwzględnia korelację między wynikami, co odróżnia go od poprzednich testów dla danych niezależnych.

Wszystkie opisane testy bazują na założeniu normalności rozkładu danych oraz odpowiedniej liczebności próby, co jest kluczowe dla wiarygodności wyników. W praktyce laboratoryjnej i badawczej niezmiernie ważne jest także świadome dobranie testu odpowiedniego do charakteru i ilości danych oraz rodzaju zależności między zestawami wyników.

Dla pełnego zrozumienia istoty i zastosowania tych testów warto dodatkowo zgłębić wpływ odchyleń od założeń testów, takich jak brak normalności czy heterogeniczność wariancji, na ich moc i wiarygodność. Wiedza o możliwych konsekwencjach naruszenia tych założeń pozwala na właściwe interpretowanie wyników i unikanie błędów wnioskowania statystycznego. Znajomość alternatywnych metod i testów odpornych na odchylenia od klasycznych założeń rozszerza możliwości analizy danych, zwłaszcza w przypadkach trudnych do klasyfikacji. Dodatkowo, rozumienie kontekstu eksperymentalnego, w którym stosowane są te testy, oraz celów badania, pozwala na ich efektywne i świadome wykorzystanie.