W celu zapewnienia wysokiej jakości danych analitycznych w laboratoriach chemicznych, konieczne jest stosowanie odpowiednich narzędzi kontrolnych, w tym kart kontrolnych i wykresów CUSUM. Te narzędzia umożliwiają monitorowanie wyników analitycznych w czasie rzeczywistym, pomagając w identyfikowaniu potencjalnych błędów i niezgodności w procesie analitycznym. Prawidłowe obliczenie i interpretacja wyników na takich wykresach pozwala nie tylko na szybkie wykrycie odchyleń od normy, ale także na podejmowanie odpowiednich działań korygujących.
Aby przeprowadzić obliczenia dla wykresu CUSUM, zaczynamy od zebrania wyników serii danych. Na przykład, mając 20 pomiarów, możemy obliczyć średnią i odchylenie standardowe. Dla przedstawionych danych:
-
Średnia (Mean) wynosi 41.0,
-
Odchylenie standardowe (SD) wynosi 2.0.
Obliczamy wartości graniczne:
-
Górna granica akceptowalna (UAL) wynosi 46.8,
-
Górna granica wczesnego ostrzeżenia (UWL) to 44.9,
-
Dolna granica wczesnego ostrzeżenia (LWL) to 37.0,
-
Dolna granica akceptowalna (LAL) to 35.1.
Następnie przechodzimy do obliczeń wykresu CUSUM, który obrazuje kumulację odchyleń od średniej, umożliwiając wykrywanie systematycznych błędów. Na podstawie wyników, możemy zauważyć, że po obliczeniach, wartości CUSUM dla danych wyników stopniowo zmieniają się, wskazując na potencjalne odchylenia, szczególnie w przypadku wyników 11-20, gdzie wartości wykresu stają się coraz bardziej negatywne. Wartość CUSUM poniżej -20 wskazuje na możliwe problemy, które wymagają interwencji.
Po obliczeniach warto skonstruować wykres CUSUM, który wyraźnie pokaże punkty przekroczenia dopuszczalnych granic oraz momenty, w których analiza wykazuje istotne odchylenia od normy. Tego typu wykresy, wspierane odpowiednimi narzędziami, umożliwiają szybkie reagowanie na anomalie w danych analitycznych, co jest kluczowe dla zapewnienia wysokiej jakości w laboratorium.
Warto jednak pamiętać, że wykresy CUSUM to tylko jedno z narzędzi w procesie kontroli jakości. W prawidłowym systemie zapewnienia jakości należy również uwzględnić stosowanie odpowiednich próbek kontrolnych. Próbki te, niezależnie od typu, muszą spełniać określone kryteria: muszą być reprezentatywne, stabilne oraz łatwe do przechowywania przez dłuższy czas. Dobór próbek kontrolnych powinien uwzględniać także typ analizowanych próbek oraz zmienność matriks, co pozwala uniknąć efektów związanych z cyklicznością, które mogłyby wpłynąć na wyniki analityczne.
Rodzaje próbek kontrolnych obejmują:
-
Próbki standardowe (QCM) – stosowane do weryfikacji kalibracji, ale nie wykrywają wpływu matriksu,
-
Próbki puste (blank) – wykrywają błędy związane z odczynnikami i parametrami aparatury,
-
Próbki rzeczywiste – używane do szybkiej kontroli precyzji, ale nie do weryfikacji dokładności.
Kluczowym aspektem jest częstotliwość analiz oraz to, czy próbki mają zmienny matriks. Jeżeli analiza wykonywana jest regularnie na tej samej próbce, należy uwzględnić przygotowanie próbek, podczas gdy dla próbek o zmiennym matriksie wystarczy jedynie kontrolować pomiar.
Kontrola jakości wewnętrznej (IQC) stanowi integralną część systemu zarządzania jakością w laboratorium analitycznym. Jest to proces ciągłej oceny metod i procedur analitycznych, który obejmuje wszystkie etapy procesu, od momentu przyjęcia próbki do laboratorium po sporządzenie raportu analitycznego. Należy pamiętać, że IQC nie jest jednorazowym procesem – wymaga regularnych przeglądów i modyfikacji, aby dostosować metody analityczne do zmieniających się warunków.
W celu zapewnienia skutecznej kontroli jakości, laboratoria muszą regularnie stosować wykresy kontrolne i próby kontrolne. Ponadto, te dane kontrolne mogą być użyte do oceny niepewności pomiaru i poprawy ogólnej wydajności laboratorium. Należy jednak pamiętać, że IQC i walidacja metod to dwa różne procesy – pierwszy jest ciągły, drugi cykliczny.
Podsumowując, kontrola jakości w laboratorium analitycznym wymaga precyzyjnego monitorowania wyników pomiarów, stosowania odpowiednich narzędzi analitycznych, takich jak wykresy CUSUM i karty kontrolne, oraz regularnego przeglądu i doskonalenia metod analitycznych. Tylko w ten sposób można zagwarantować rzetelność i wysoką jakość uzyskiwanych wyników.
Jak obliczać niepewność rozszerzoną dla roztworów wzorcowych przygotowanych metodą rozcieńczeń?
Przygotowanie roztworów wzorcowych o określonym stężeniu wymaga nie tylko precyzji w wykonywaniu operacji laboratoryjnych, lecz także analitycznego podejścia do szacowania niepewności pomiarowej. Kluczową kwestią w ocenie jakości takiego roztworu jest obliczenie niepewności złożonej i niepewności rozszerzonej, a także identyfikacja udziału poszczególnych źródeł niepewności w ogólnym bilansie błędów.
Rozcieńczanie roztworów pierwotnych realizowane jest zwykle etapami, przy użyciu pipet i kolb miarowych o określonych objętościach. W przedstawionym przypadku, roztwór o stężeniu 1001 mg/dm³ został rozcieńczony kilkukrotnie: najpierw przez przeniesienie 1 cm³ do kolby 100 cm³, następnie pobrano 5 cm³ i rozcieńczono do 100 cm³, otrzymując roztwór wzorcowy o końcowym stężeniu 0.501 ± 0.012 mg/dm³. W drugim przypadku zastosowano trzyetapowe rozcieńczanie: 10 cm³ do 100 cm³, następnie 5 cm³ do 100 cm³ i ostatecznie 10 cm³ do kolejnej kolby 100 cm³, co dało wynik 0.5005 ± 0.0053 mg/dm³.
W obu przypadkach istotne jest określenie niepewności względnej każdej z operacji – zarówno objętości pipet, jak i kolb miarowych – oraz ich udziału procentowego w całkowitej niepewności złożonej. W pierwszym przykładzie największy udział miała pipeta 1 cm³ (89,29%), natomiast w drugim największy wpływ miała pipeta 5 cm³ (42,86%). Obliczenia te ukazują, że precyzja wykonania najmniejszych objętości w procedurze ma największe znaczenie dla końcowej niepewności pomiaru.
W przypadku oznaczeń masowych, niepewność oblicza się na podstawie różnicy masy brutto i tary, z uwzględnieniem niepewności pojedynczych pomiarów, określonych przez producenta wagi. Dla masy netto 144.83 mg i niepewności pomiaru 0.5 mg dla obu odczytów, obliczona niepewność standardowa wynosi 0.41 mg, a rozszerzona – 0.82 mg. Prawidłowa prezentacja wyniku powinna zawierać wartość nominalną wraz z niepewnością rozszerzoną i współczynnikiem pokrycia (k = 2).
Dalsze przygotowanie roztworu polegało na przeniesieniu ważonej substancji do kolby miarowej o objętości 250 cm³, dla której niepewność objętościowa wynosiła 0.4 cm³. Przy założeniu rozkładu prostokątnego dla wszystkich parametrów, niepewność złożona końcowego stężenia wyniosła 0.0020, a niepewność rozszerzona – 0.0023 mg/cm³, co daje wynik końcowy 0.5793 ± 0.0023 mg/cm³.
Kolejnym etapem było rozcieńczenie roztworu uzyskanego wcześniej w stosunku 1:10 – przez pobranie 1 cm³ pipetą (u = 0.2 cm³) i rozcieńczenie do 10 cm³ (u = 0.05 cm³). Końcowa niepewność złożona wyniosła aż 0.12, co pokazuje znaczący wzrost błędu przy pracy z bardzo małymi objętościami i dużym stosunkiem rozcieńczenia. Niepewność rozszerzona osiągnęła 0.13 mg/cm³, a wynik prezentuje się jako 0.058 ± 0.013 mg/cm³.
W procesie analizy niepewności istotne jest także stosowanie narzędzi graficznych – takich jak diagram przepływu (flow diagram) oraz diagram Ishikawy (diagram przyczynowo-skutkowy). Te wizualizacje umożliwiają identyfikację źródeł niepewności w całym procesie analitycznym, od pobrania próbki po analizę końcową, i są rekomendowane przez dobre praktyki laborat
Jak organizuje się i analizuje badania międzylaboratoryjne oraz jakie mają one ograniczenia?
Badania międzylaboratoryjne, zwłaszcza testy biegłości, stanowią istotny element oceny jakości i wiarygodności analiz wykonywanych w różnych laboratoriach. Podstawową formą takiego badania jest podział produktu lub materiału na kilka części, które są rozdzielane pomiędzy uczestników – tzw. badanie z próbką podzieloną (split sample study). Pomimo ich znaczenia, testy biegłości wiążą się z szeregiem ograniczeń. Przede wszystkim są czasochłonne i wyniki otrzymuje się z dużym opóźnieniem, co uniemożliwia ich bezpośrednie wykorzystanie do bieżącego zarządzania jakością. Ponadto testy te stanowią jedynie niewielką część wszystkich analiz realizowanych w laboratoriach, przez co nie odzwierciedlają pełnego obrazu codziennej pracy.
Kontrola pracy laboratoriów jest niezbędna dla oceny wiarygodności uzyskiwanych wyników analitycznych. Współpraca z centrum kontrolnym umożliwia precyzyjne zlokalizowanie źródeł błędów i przyczyn ich powstawania, co prowadzi do podniesienia jakości wyników. W procesie tym kluczową rolę odgrywają materiały odniesienia, których produkcja i certyfikacja są kosztowne. Dlatego w testach międzylaboratoryjnych korzysta się najczęściej z laboratoryjnych materiałów odniesienia (LRM), które z powodzeniem zastępują certyfikowane materiały odniesienia (CRM) w rutynowych weryfikacjach i kalibracjach.
Materiały odniesienia powinny spełniać wymagania dotyczące podobieństwa, jednorodności oraz stabilności przez odpowiednio długi czas. To zapewnia porównywalność i wiarygodność wyników pomiędzy różnymi laboratoriami.
Wyniki badań międzylaboratoryjnych są zazwyczaj prezentowane graficznie – od najniższych do najwyższych, z oznaczeniem laboratorium oraz, opcjonalnie, liczby niezależnych pomiarów. Takie diagramy pozwalają uczestnikom ocenić, jak ich wyniki plasują się względem innych oraz stanowią ważne narzędzie dla potencjalnych klientów i jednostek akredytujących.
Analiza statystyczna wyników zależy od rodzaju badań i jest ściśle określona w odpowiednich dokumentach normatywnych. Głównym celem jest ocena dokładności i precyzji zastosowanych procedur pomiarowych. Dokładność ocenia się przez porównanie wartości średniej wyników z wartością referencyjną lub przypisaną. Precyzja natomiast odnosi się do zgodności serii wyników, opisanej poprzez powtarzalność i odtwarzalność pomiarów.
Pierwszym etapem przetwarzania danych jest weryfikacja typu rozkładu wyników, na przykład testem Kołmogorowa-Smirnowa, by określić normalność rozkładu. Następnie eliminowane są wartości odstające (outliery), które mogą wynikać z błędów technicznych, różnic w kompetencjach laboratoriów lub nieadekwatności wybranej metody pomiarowej. Eliminacja tych wartości jest szczególnie istotna, gdy badany materiał stanowi materiał odniesienia certyfikowany w ramach samego badania.
Do wykrywania wartości odstających stosuje się różne testy statystyczne, takie jak testy Cochran’a, Grubbsa czy test Hampela (zwany także testem Hubera). Wybór odpowiedniej metody zależy od liczby wyników i specyfiki badania.
Ważne jest, by czytelnik rozumiał, że badania międzylaboratoryjne, choć są fundamentalnym narzędziem zapewniania jakości, mają swoje ograniczenia związane z czasem oczekiwania na wyniki oraz ograniczonym zakresem analiz. Równocześnie, właściwa interpretacja wyników wymaga solidnej wiedzy z zakresu statystyki, a zrozumienie mechanizmów eliminacji wartości odstających i znaczenia materiałów odniesienia jest kluczowe dla rzetelnej oceny procedur pomiarowych i samej jakości wyników analitycznych. Ponadto istotne jest uświadomienie sobie, że wyniki testów międzylaboratoryjnych są jedynie fragmentem całościowego systemu zarządzania jakością i powinny być łączone z innymi metodami kontroli wewnętrznej, by skutecznie podnosić wiarygodność i precyzję analiz.
Jak ocenić wiarygodność wyników badań międzylaboratoryjnych?
W analizach międzylaboratoryjnych kluczowe znaczenie ma umiejętność trafnej oceny jakości wyników uzyskiwanych przez różne laboratoria. Metody statystyczne pozwalają nie tylko na porównanie wyników, ale przede wszystkim na identyfikację danych odstających, niewiarygodnych lub wymagających dalszej weryfikacji. Najczęściej stosowanymi narzędziami w tym celu są wskaźniki Z-Score, błąd względny oraz parametr En.
Z-Score, jako klasyczny wskaźnik statystyczny, pozwala ocenić odchylenie wyniku danego laboratorium od wartości odniesienia (xref), uwzględniając jednocześnie niepewność rozszerzoną (uref). W praktyce, jeżeli wartość bezwzględna Z mieści się w granicach 2, uznaje się wynik za satysfakcjonujący. Gdy wartość ta przekracza 3, wynik uznaje się za niezadowalający. Wartości pośrednie (między 2 a 3) klasyfikowane są jako „wątpliwe” i wymagają dodatkowej analizy.
Dane przykładowe pokazują, jak w oparciu o te zasady klasyfikuje się laboratoria. Na podstawie jednej z analiz, laboratoria nr 7, 9, 17 i 20 wykazały rażąco wysokie wartości Z, wskazujące na istotne rozbieżności względem wartości referencyjnej. Wyniki z tych laboratoriów należy zakwestionować jako niespełniające kryteriów jakościowych.
Kiedy uczestnicy badań stosują różne metody analityczne, a tym samym nie ma podstaw do przyjęcia wspólnej wartości odniesienia, wykorzystuje się wskaźnik błędu względnego (ε), wyrażony w procentach. Oblicza się go jako różnicę pomiędzy wynikiem laboratorium a wartością referencyjną, podzieloną przez wartość referencyjną. Dopuszczalne granice błędu są ustalane w zależności od zakresu stężeń analitu – w przytoczonym przykładzie wynosiły ±20%.
Analiza błędów względnych wykazała, że większość laboratoriów mieści się w dopuszczalnym zakresie. Jednak laboratoria 2, 7, 9, 17, 20 i 22 przekroczyły próg 20%, przez co ich wyniki zostały uznane za niesatysfakcjonujące. Co ciekawe, niektóre z nich uzyskały również wysokie wartości Z, co potwierdza niespójność danych i wskazuje na konieczność audytu metodologii stosowanej w tych jednostkach.
Wskaźnik En, w przeciwieństwie do Z-Score, uwzględnia niepewności zarówno wartości referencyjnej, jak i wartości pomiarowej danego laboratorium. Wzór opiera się na różnicy między wartością zmierzoną a referencyjną, podzielonej przez pierwiastek z sumy kwadratów niepewności. Wartość En zawierająca się w przedziale od -1 do 1 uznawana jest za dopuszczalną. Ze względu na uwzględnienie niepewności, wskaźnik En jest mniej rygorystyczny od Z, co może prowadzić do sytuacji, w której wyniki odchylone od średniej, lecz z wysoką niepewnością, są uznawane za poprawne, podczas gdy wyniki bardziej zbliżone do średniej, ale z niską niepewnością – są odrzucane.
Analiza En Score dla przedstawionych danych pokazuje jednak coś przeciwnego – zdecydowana większość wyników, mimo że wcześniej klasyfikowana jako „satysfakcjonująca” na podstawie Z i błędu względnego, została tu odrzucona. Oznacza to, że w przypadku niskich niepewności, nawet małe odchylenie może skutkować uznaniem wyniku za nieakceptowalny. Taki wynik analizy wskazuje na konieczność starannego zarządzania niepewnością pomiarową – nie tylko jej wartością, ale także metodą jej estymacji.
Graficzna prezentacja danych, np. za pomocą wykresów pudełkowych (box plot), stanowi kolejne narzędzie pozwalające na wizualne porównanie rozkładów wyników uzyskanych różnymi metodami. Przyporządkowanie danych do grup według procedur analitycznych, a następnie przedstawienie ich na jednym wykresie, umożliwia szybkie wykrycie różnic istotnych statystycznie. Wyznaczenie wartości kwartylowych, rozstępu międzykwartylowego (IQR) oraz „wąsów” pozwala określić zakres zmienności oraz obecność wyników odstających. Dzięki temu możliwe jest nie tylko wykrycie błędów, ale także identyfikacja tendencji charakterystycznych dla określonych technik analitycznych.
Dla interpretacji danych międzylaboratoryjnych kluczowe jest nie tylko zastosowanie odpowiednich statystycznych narzędzi oceny jakości, lecz także zrozumienie ograniczeń każdej z metod. Wskaźnik Z-Score, mimo swojej prostoty, nie uwzględnia niepewności, co może prowadzić do błędnych wniosków przy wysokim rozrzucie danych. Z kolei wskaźnik En, choć precyzyjniejszy, może być zbyt surowy w przypadkach bardzo niskiej niepewności. Błąd względny stanowi metodę pośrednią, ale wymaga zdefiniowania dopuszczalnych granic, które są arbitralne i zależne od specyfiki analitu. Każde z narzędzi daje więc tylko część obrazu – dopiero ich łączne zastosowanie pozwala uzyskać rzetelną ocenę.
Dodatkowo, czytelnik powinien zrozumieć, że ocena wyników nie może być oderwana od kontekstu: rodzaju próbki, zakresu stężeń, doświadczenia laboratoriów, stosowanych metod analitycznych oraz specyfikacji sprzętowej. Żadne narzędzie statystyczne nie zastąpi profesjonalnego osądu eksperta – ale może stanowić jego podstawę.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский