Ocena poprawności metody analitycznej opiera się na analizie błędów systematycznych i losowych, które mogą występować w wyniku oznaczenia analitu. Wynik serii oznaczeń może zawierać odchylenie systematyczne, które może mieć charakter stały lub zmienny. Odchylenie stałe nie zależy od stężenia analitu, podczas gdy odchylenie zmienne wykazuje zależność — najczęściej liniową — od wartości stężenia oznaczanego składnika.
Dla dwóch serii oznaczeń wykonanych zarówno metodą referencyjną, jak i opracowaną, wyznacza się wartość mnożnika korekcyjnego za pomocą wzoru:
gdzie:
, — średnie wartości dla pierwszego i drugiego standardu uzyskane metodą referencyjną,
Wartość błędu zmiennego określa się zgodnie z wcześniejszym równaniem, natomiast dla próbek o różnym poziomie zawartości analitu należy wyznaczyć zależność regresji pomiędzy wynikami uzyskanymi metodą referencyjną (oś Y) i badaną metodą (oś X), w postaci równania:
Parametry tej regresji (nachylenie i wyraz wolny) pozwalają obliczyć:
a) błąd stały:
b) błąd zmienny:
Wynik oznaczenia może być obarczony jedynie błędem losowym i/lub systematycznym, zgodnie z relacją:
gdzie to całkowity błąd średniego wyniku serii pomiarów, — wartość oczekiwana, — błąd systematyczny, a — błąd losowy.
W przypadku dużej liczby powtórzeń, błąd losowy staje się zaniedbywalnie mały, a całkowity błąd wyraża się jako wartość oczekiwana wyniku metody pomniejszona o wartość rzeczywistą:
Błąd systematyczny sprawia, że wyniki serii pomiarów są przesunięte względem wartości oczekiwanej o określoną, stałą wartość. Odchylenie to można zapisać jako:
Jeżeli błąd losowy jest pomijalny względem systematycznego, wynik oznaczenia przyjmuje postać:
Dopiero po eliminacji wyników obarczonych błędem grubym oraz po korekcie na błędy systematyczne można mówić o wyniku, którego niepewność wyznacza precyzja.
Poprawność oznaczeń można określać na kilka sposobów. Jednym z nich jest porówn
Jak interpretować wyniki testów statystycznych dla porównania średnich i wariancji?
Analiza statystyczna porównująca zestawy danych opiera się na ocenie, czy różnice między wartościami średnimi lub odchyleniami standardowymi są statystycznie istotne, co pozwala na przyjęcie lub odrzucenie hipotezy zerowej (Ho). W praktyce wykorzystywane są różne testy, m.in. test t Studenta, test Cochran-Cox, test Aspin-Welch oraz test Cochrana, które różnią się w zależności od przyjętych założeń dotyczących rozkładu i wariancji danych.
Test t Studenta jest najczęściej stosowany do porównania średnich dwóch serii wyników, przy założeniu, że rozkład wyników jest normalny, a liczba pomiarów w każdej serii przekracza 2. Wymaga również niewielkich różnic wariancji (co weryfikuje się testem F Snedecora). Obliczona wartość t, która opiera się na średnich i odchyleniach standardowych obu serii, jest porównywana z wartością krytyczną t_crit odpowiadającą poziomowi istotności α i stopniom swobody f = n_1 + n_2 − 2. Jeżeli t ≤ t_crit, uznaje się, że średnie nie różnią się istotnie statystycznie, co oznacza akceptację hipotezy Ho. W przeciwnym przypadku hipoteza Ho jest odrzucana.
Podobne podejście dotyczy testu t Studenta porównującego średnią z wartością założoną, gdzie wartość t wyliczana jest jako stosunek różnicy średniej z serii do wartości założonej, do błędu standardowego tej średniej. Stopnie swobody w tym przypadku wynoszą f = n − 1. Interpretacja wyników jest analogiczna do testu porównującego dwie średnie.
Gdy jednak wariancje badanych serii różnią się w sposób statystycznie istotny, stosowanie klasycznego testu t Studenta jest niewłaściwe. W takim wypadku używa się testu Cochran-Cox lub Aspin-Welch, które są przystosowane do nierównych wariancji. Test Cochran-Cox oblicza parametr C na podstawie różnicy średnich i odchyleń standardowych oraz liczby pomiarów, a następnie porównuje go z wartością krytyczną C_crit wyliczaną na podstawie odpowiednich wartości t dla stopni swobody oddzielnie dla każdej serii. Analogicznie jak w innych testach, jeśli C ≤ C_crit, hipoteza Ho jest akceptowana, w przeciwnym razie odrzucana.
Test Aspin-Welch jest rozszerzeniem poprzedniego, które pozwala na analizę, gdy liczba pomiarów jest większa niż 6, a wariancje różnią się istotnie. W tym teście oblicza się wartość ν oraz wartość krytyczną ν_0, które uwzględniają nie tylko odchylenia standardowe i liczebności prób, lecz także współczynnik c odzwierciedlający nierówność wariancji. Interpretacja wyników przebiega według tego samego schematu: ν ≤ ν_0 oznacza brak istotnych różnic między średnimi, ν > ν_0 oznacza ich istotność statystyczną.
W kontekście wykrywania odchyleń lub wyników odstających stosuje się test Cochrana, który jest testem jednostronnym, koncentrującym się na największym odchyleniu standardowym w serii wyników. Liczba pomiarów w serii powinna wynosić co najmniej 2. Test ten pozwala określić, czy dany wynik jest anomalią i może wymagać eliminacji z analizy.
Wszystkie te testy opierają się na założeniu normalności rozkładu danych, co jest warunkiem koniecznym do stosowania testów parametrycznych. Przy ich naruszeniu należy rozważyć testy nieparametryczne lub transformacje danych.
Ponadto, podczas analizy statystycznej ważne jest, aby zawsze uwzględnić poziom istotności α, który definiuje granicę prawdopodobieństwa błędu pierwszego rodzaju (odrzucenie prawdziwej hipotezy zerowej). Przyjęcie zbyt wysokiego poziomu istotności może prowadzić do nadmiernej akceptacji różnic, natomiast zbyt niski poziom może skutkować nieuzasadnionym odrzuceniem hipotez.
W praktyce, ocena wyników testów powinna być zawsze wspierana analizą wizualną danych (np. wykresami rozrzutu, histogramami) oraz kontekstem eksperymentalnym, by zapewnić, że statystyczne różnice mają rzeczywiste znaczenie dla badanej problematyki, a nie są jedynie artefaktem analizy.
Jak ocenić jakość i porównywalność wyników badań międzylaboratoryjnych?
W badaniach analitycznych, gdzie precyzja, powtarzalność i zgodność wyników są kluczowe, niezwykle istotne staje się stosowanie odpowiednich testów statystycznych pozwalających na ocenę jakości danych pomiędzy różnymi laboratoriami. W tym celu stosuje się m.in. wskaźnik En, testy Mandla (h i k), test Kołmogorowa-Smirnowa oraz regresję liniową. Każde z tych narzędzi pełni istotną funkcję w zapewnianiu wiarygodności oraz spójności wyników badań.
Wskaźnik En umożliwia ocenę zgodności pomiędzy wartością uzyskaną przez laboratorium a wartością referencyjną. Wartość En oblicza się na podstawie różnicy pomiędzy tymi dwiema wartościami, podzielonej przez pierwiastek sumy kwadratów niepewności standardowych – zarówno tej przypisanej wartości laboratorium, jak i wartości referencyjnej. Jeśli wartość En jest mniejsza lub równa 1, oznacza to, że zgodność jest satysfakcjonująca. Wartość przekraczająca 1 wymaga dalszej analizy i potencjalnej korekty.
Testy Mandla (h i k) służą do oceny śladowości i spójności wyników między laboratoriami. Test h analizuje odchylenie średniej z wyników danego laboratorium od średniej globalnej, natomiast test k bada odchylenie standardowe, czyli rozrzut wyników. Zarówno dla testu h, jak i k, obliczone wartości są nanoszone na wykresy i porównywane z liniami granicznymi, odpowiadającymi wartościom krytycznym dla wybranego poziomu istotności (np. α = 0,01 lub 0,05). Przekroczenie tych granic sygnalizuje potencjalne problemy analityczne, które należy poddać dalszej ocenie.
Test Kołmogorowa-Smirnowa znajduje zastosowanie w porównywaniu rozkładów dwóch zestawów wyników. Oblicza się funkcje rozkładów empirycznych dla obu serii danych oraz parametr λn, który porównuje się z wartością krytyczną dla danego poziomu istotności. Jeśli λn nie przekracza wartości krytycznej, można uznać, że rozkłady nie różnią się istotnie. Jeśli natomiast wartość λn jest większa, różnice są statystycznie istotne – co może świadczyć o niejednorodności danych, błędach systematycznych lub niedostatecznym ujednoliceniu procedur analitycznych.
Metoda regresji liniowej to podstawowe narzędzie przy wyznaczaniu zależności pomiędzy sygnałem wyjściowym a stężeniem analitu. Pozwala na określenie parametrów krzywej kalibracyjnej: nachylenia (b), wyrazu wolnego (a), współczynnika korelacji (r) oraz błędów standardowych tych parametrów. Parametry te są nieodzowne przy walidacji metod analitycznych, zwłaszcza w kontekście dokładności, liniowości i granic wykrywalności. Analiza rezydualna (SDxy) pozwala ocenić, jak bardzo wartości eksperymentalne odbiegają od przewidywanych przez model, co ma kluczowe znaczenie przy weryfikacji poprawności modelu regresji.
Nie mniej ważne są zasady zapisu wyników pomiarów, zwłaszcza dotyczące liczby cyfr znaczących i reguł zaokrąglania. Wartość wynikowa powinna zawierać tyle cyfr po przecinku, ile ma ich najmniej precyzyjna składowa działania – w przypadku dodawania i odejmowania. Przy mnożeniu i dzieleniu, liczba cyfr znaczących w wyniku powinna być równa najmniejszej liczbie cyfr znaczących wśród danych wejściowych. Prawidłowy zapis wyników analitycznych powinien być spójny z obliczoną niepewnością pomiarową.
W kontekście analiz międzylaboratoryjnych niezwykle istotne jest również zrozumienie, że ocena statystyczna nie ma na celu jedynie klasyfikacji danych jako „dobrych” czy „złych”, lecz powinna być traktowana jako narzędzie diagnostyczne. Wysokie wartości wskaźników h lub k nie muszą automatycznie wskazywać na błędy laboratoryjne – mogą być sygnałem odmiennej metodyki, różnic w przygotowaniu próbek lub użycia różnych modeli aparaturowych. Podobnie, różnice wykazane przez test Kołmogorowa-Smirnowa mogą wynikać z rozkładów nienormalnych, obecności wartości odstających lub specyficznych cech badanej matrycy.
Ważne, aby interpreto

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский