Normaalijakauma, N(μx, SD), on tilastollinen jakauma, joka on määritelty tietyillä ominaisuuksilla. Tällaisessa jakaumassa on odotusarvo μx, mediaani Me = μx ja varianssi V. Tämä jakauma on jatkuva ja symmetrinen, ja se on yleisesti tunnettu "kellonmuotoisesta" käyrästään. Toinen tärkeä jatkuva jakauma on tasajakauma, joka tunnetaan myös suorana tai neliömäisenä jakaumana. Tällöin todennäköisyys tiheysfunktio on vakio tietyllä välin −a, +a sisällä, mutta nolla sen ulkopuolella. Tällöin tärkeä huomio on, että välin ääripäät −a ja +a voivat olla joko sisällytettyjä tai pois jätettyjä, koska jakauma on jatkuva. Tasajakauma määritellään parametreilla −a ja +a. Tasajakauman keskiarvo on μx = 0, mediaani Me = 0 ja varianssi V = a²/3.

Kolmas jakaumatyypin esimerkki on kolmionmuotoinen jakauma, joka kattaa välin −a, +a. Tässä jakaumassa odotusarvo on μx = 0, mediaani Me = 0 ja varianssi V = a²/6.

Satunnaismuuttujan jakauma tarjoaa täydellistä tietoa tutkittavasta ominaisuudesta (esimerkiksi pitoisuus, sisältö, fysiokemiallinen ominaisuus). Kuitenkin tällainen täydellinen tieto on harvoin käytettävissä, ja useimmiten päädytään tekemään arvioita, jotka perustuvat rajoitettuun määrä tietoa – esimerkiksi pienelle näytemäärälle, joka edustaa laajempaa kokonaisuutta. Tällöin otetaan käyttöön arvioitujen parametrien (statistiset parametrit) tai empiirisen jakauman analyysi.

Statistiset parametrit ovat numeerisia määriä, joita käytetään tilastollisen populaation rakenteen kuvaamiseen. Nämä parametrit jaetaan neljään perusryhmään: sijaintimittarit, hajontamittarit, vinoutumismittarit ja konsentraatiomittarit.

Sijaintimittarit ovat tilastollisia mittareita, joita käytetään kuvaamaan yleistä tasoa populaation ominaisuudessa. Tällaisia mittareita ovat esimerkiksi aritmeettinen keskiarvo, katkaistu keskiarvo, moodi ja kvantiilit kuten kvartaalit, mediaani ja desiilit. Aritmeettinen keskiarvo on summa kaikista mitattavista arvoista jaettuna yksiköiden määrällä populaatiossa. Tällöin pätevät seuraavat ominaisuudet:

  • aritmeettinen keskiarvo on populaation kaikkien arvojen summa jaettuna yksiköiden määrällä,

  • aritmeettinen keskiarvo sijaitsee välillä x_min < x_m < x_max,

  • yksittäisten arvojen poikkeamien summa keskiarvosta on nolla,

  • poikkeamien neliösummat keskiarvosta ovat minimissä,

  • aritmeettinen keskiarvo on herkkä poikkeaville arvoille (outliereille),

  • otoskeskiarvo on hyvä arvio odotusarvosta.

Katkaistu keskiarvo lasketaan silloin, kun mittaustulosten ääriarvot (minimit tai maksimit) voivat sisältää suuren epävarmuuden. Sen laskentatapa on seuraava:

x^wk=1nk1(i=k+2nkxi)\hat{x}_{wk} = \frac{1}{n-k-1} \left( \sum_{i=k+2}^{n-k} x_i \right)

Missä k on poistettujen ääriarvojen määrä. Tämä keskiarvo on vähemmän herkkä poikkeaville arvoille kuin aritmeettinen keskiarvo ja soveltuu erityisesti epäluotettavien ääripäiden käsittelyyn.

Moodi puolestaan on arvo, joka esiintyy useimmin joukossa. Joskus samassa aineistossa voi olla useampi moodi, jos samat korkeimmat esiintymistiheydet saavutetaan eri arvoilla.

Kvantiilit jakavat aineiston osiin. Esimerkiksi mediaani (kvantiili järjestyksessä 0,5) jakaa aineiston kahtia siten, että puolet arvoista on sen alapuolella ja puolet sen yläpuolella. Kvartaalit jakavat aineiston neljään osaan, ja desiilit kymmenen osaan.

Hajontamittarit kuvaavat kuinka suuria erotukset ovat yksittäisten havaintojen ja keskiarvon välillä. Näitä mittareita ovat esimerkiksi:

  • vaihteluväli,

  • varianssi,

  • keskihajonta,

  • keskimääräinen poikkeama,

  • variatiokerroin.

Vaihteluväli on yksinkertainen mittari, joka ilmoittaa havaintojen suurimman ja pienimmän arvon erotuksen. Tämä mittari ei kuitenkaan paljasta tietoa yksittäisten havaintojen hajonnasta.

Varianssi on keskiarvon ympärille keskittyvien poikkeamien neliöiden keskiarvo. Se lasketaan seuraavalla kaavalla:

V=1n1i=1n(xixˉ)2V = \frac{1}{n-1} \sum_{i=1}^{n} (x_i - \bar{x})^2

Keskihajonta on varianssin neliöjuuri, ja se antaa suoran kuvan siitä, kuinka laajalle yksittäiset havainnot leviävät keskiarvon ympärille. Mitä suurempi hajonta, sitä suurempi keskihajonta. Keskihajonta on nolla vain, jos kaikki havainnot ovat identtisiä.

Tilastollisen analyysin aikana tulee ymmärtää, että hajonta on osa jokaista mittausprosessia. Sitä ei aina välttämättä havaita, erityisesti silloin, kun mittalaitteen tarkkuus on riittämätön. Keskihajonta on olennainen mittari, kun pyritään arvioimaan ja hallitsemaan mittausten tarkkuutta ja luotettavuutta.

Miten kalibrointi ja tarkkuus analyysilaboratorioissa liittyvät toisiinsa?

Kalibrointi on olennainen osa kaikkia analyyttisiä prosesseja. Se on erityisen tärkeää epäsuorien (relatiivisten) mittausten tapauksessa, joissa instrumentin signaali on usein tuntematon funktio mitattavasta määrästä. Kalibrointi määritellään usein "merkinnäksi, korjaukseksi tai mittaamiseksi" tai "malliksi, joka pyrkii ennustamaan itsenäisen muuttujan arvon, kun vain riippuva muuttuja on tiedossa". Yleisesti ottaen analytiikan kalibroinnilla tarkoitetaan prosessia, jossa mallinnetaan analyyttisen signaalin todellinen (tai teoreettinen) riippuvuus analyytin pitoisuudesta (sisällöstä) ja siirretään tämä riippuvuus empiiriseen muotoon (esimerkiksi kalibrointitaulukkoon), jota voidaan käyttää analyytin pitoisuuden määrittämiseen testissä käytetyssä näytteessä.

Kalibrointi voidaan suorittaa osana analyysimenetelmää tai vain tarkistaa käytettävän laitteen luokitus. Tällöin voidaan puhua:

  • Instrumentin kalibroinnista epäsuoran mittauksen periaatteella, jolloin kalibrointivaiheella määritetään testinäytteen mitatun signaalin arvo standardinäytteelle mitatun arvon perusteella.

  • Laitteen luokituksen varmistamisesta, jossa tarkistetaan instrumentin lineaarisuus, mittaustulosten riippuvuus käytettyjen standardien parametreista, havaitsemisrajan ja/tai määrityksen raja-arvon määrittäminen, nollapisteen tarkistaminen. Tällöin kalibrointi voi koskea sekä epäsuoran mittauksen periaatteella toimivia instrumentteja että suoraan mittaavia laitteita, kuten massan tai sähkövarauksen mittausta.

Kalibroinnin tyyppejä on kaksi pääasiallista luonteenpiirrettä: kvalitatiivinen ja kvantitatiivinen kalibrointi.

Kvalitatiivinen kalibrointi keskittyy analyytin tunnistamiseen ja luonteen määrittämiseen. Tässä prosessissa käytettävät kalibrointimallit voivat perustua seuraaviin tekniikoihin:

  1. Analyytin kohdistaminen tiettyyn detektorisignaalin arvoon perustuen säilytysmuuttujiin, kuten nestekromatografia (LC) tai kaasukromatografia (GC).

  2. Detektorin kalibrointi vertailustandardin avulla (esimerkiksi ydinmagneettinen resonanssi, NMR).

  3. Analyytin tunnistaminen vertaamalla valittuja signaaleja viitesignaaleihin, kuten massaspektrometria (MS).

Kvantitatiivinen kalibrointi puolestaan keskittyy analyytin määrän määrittämiseen, eli analyyttisen signaalin ja tunnetun analyytin pitoisuuden (tai sisällön) välinen suhde määritellään tarkasti.

Kalibrointiprosessissa voidaan erotella ulkoinen ja sisäinen kalibrointi.

  • Ulkoinen kalibrointi tarkoittaa, että standardinäyte ja testinäyte käsitellään erikseen, eli niille tehdään itsenäiset mittaukset.

  • Sisäinen kalibrointi taas tarkoittaa, että standardi lisätään testinäytteeseen ennen analyyttistä prosessia, jolloin kalibrointi suoritetaan yhteisessä analyyttisessä menettelyssä. Tällöin kalibrointivaihe vähentää mahdollisia matriisin koostumuksen vaikutuksia mittaustulokseen, koska oletetaan, että matriisin koostumus vaikuttaa testinäytteessä olevaan analyttiin samalla tavalla kuin lisättyyn standardiin.

Kalibrointitekniikoita on useita, ja ne eroavat toisistaan standardiliuosten valmistelun, mittaustulosten sekä kalibrointisuhteen määrittämistavan mukaan. Yksi yleisimmistä tekniikoista on yksittäinen standardimenetelmä, jossa mitataan sekä standardiseos että testinäyte. Analyytin määrä testinäytteessä lasketaan tunnetun kaavan avulla.

Yksittäisen standardimenetelmän avulla voidaan tarkentaa analyysin tarkkuutta ja luotettavuutta, mutta tämä menetelmä on altis virheille, erityisesti silloin, kun testinäytteen ja standardin välillä on merkittäviä eroja. Virheriskin kasvu korostuu, kun signaalit eroavat suuresti, sillä oletetaan, että häiriötaso on sama molemmissa näytteissä – mutta tämä ei aina pidä paikkansa.

Kalibroinnin ja analyysimenetelmien luotettavuus on riippuvainen monista tekijöistä. Instrumentin tyyppi, käytettävissä olevien näytteiden määrä, standardinäytteiden valmistuksen mahdollisuus ja mittaustuloksen vaadittu tarkkuus ovat kaikki tärkeitä tekijöitä, jotka vaikuttavat kalibrointiprosessin laatuun. Lisäksi näytteen koostumus ja mahdollisuus muuttaa sen koostumusta analyysiprosessin aikana voivat myös vaikuttaa tuloksiin ja vaatia erityistä huomiota kalibrointivaiheessa.

Kalibroinnin onnistumisen kannalta on tärkeää valita sopiva menetelmä ja tekniikka, joka huomioi näytteen ja standardin ominaisuudet, laitteiden rajoitukset sekä analyysiin asetetut vaatimukset. Tällä tavoin voidaan varmistaa, että saadut tulokset ovat mahdollisimman tarkkoja ja luotettavia.

Miten arvioida tilastollista merkitsevyyttä: Esimerkkejä ja käytännön sovelluksia

Kun suoritetaan tilastollisia analyysejä, yksi tärkeimmistä vaiheista on vertailla laskettua arvoa kriittiseen arvoon. Tämä vertailu perustuu testissä käytettävään merkitsevyystasoon α ja vapautusasteisiin (f), jotka määritellään vertailluille aineistoille. Käytännössä tämä tarkoittaa sitä, että kun laskettu arvo t ei ylitä kriittistä arvoa t_crit (eli t ≤ t_crit), voidaan päätellä, että vertailtavat standardipoikkeamat eivät eroa toisistaan tilastollisesti merkitsevällä tavalla – tällöin hyväksytään nollahypoteesi (H₀). Jos taas laskettu t-arvo ylittää kriittisen arvon (t > t_crit), voidaan tehdä johtopäätös, että standardipoikkeamat eroavat toisistaan tilastollisesti merkitsevällä tavalla, mikä johtaa nollahypoteesin hylkäämiseen.

Studentin t-testi on yksi yleisimmistä menetelmistä, joita käytetään erojen arvioimiseen kahden aineiston keskiarvojen välillä. Sen taustalla on nollahypoteesi (H₀), jonka mukaan verrattavat aineistojen keskiarvot eivät eroa tilastollisesti merkitsevällä tavalla, ja vaihtoehtoinen hypoteesi (H₁), jonka mukaan keskiarvot eroavat merkittävästi. Studentin t-testissä on kuitenkin tiettyjä ehtoja: aineistojen tulisi noudattaa normaalijakaumaa, kummankin aineiston otoskoko tulee olla suurempi kuin kaksi, ja lisäksi aineistojen hajontojen tulisi olla tilastollisesti samankaltaisia, mikä voidaan tarkistaa Snedecorin F-testillä.

Tämän testin suorittamiseksi lasketaan molempien aineistojen keskiarvot ja standardipoikkeamat. Tämän jälkeen lasketaan t-arvo kaavan mukaan, jossa otetaan huomioon otoskoko, keskiarvot ja hajonnat. Tämän jälkeen laskettua t-arvoa verrataan kriittiseen t-arvoon, joka määräytyy merkitsevyystason α ja vapautusasteiden (f) perusteella. Jos laskettu t-arvo on pienempi tai yhtä suuri kuin kriittinen arvo, nollahypoteesi hyväksytään, mutta jos t-arvo on suurempi kuin kriittinen arvo, nollahypoteesi hylätään ja vaihtoehtoinen hypoteesi hyväksytään.

Toinen hyödyllinen testi on Cochranin-Cox C-testi, joka on suunniteltu erityisesti tilanteisiin, joissa verrattavien aineistojen hajonnat eroavat tilastollisesti merkitsevällä tavalla. Tässä testissä vertaillaan kahden aineiston keskiarvojen eroja, mutta ennen testin suorittamista varmistetaan, että aineistojen hajonnat ovat erottuneet tilastollisesti. Cochranin-Cox C-testissä lasketaan C-arvo, joka kertoo, kuinka suuria erot ovat verrattuna kriittiseen arvoon C_crit. Jos laskettu C-arvo on pienempi tai yhtä suuri kuin C_crit, nollahypoteesi hyväksytään, mutta jos se on suurempi, nollahypoteesi hylätään.

Aspin-Welch-testi on erityinen testimenetelmä, jota käytetään tilanteissa, joissa aineistojen hajonnat eroavat merkittävästi. Tässä testissä otetaan huomioon kahden aineiston keskiarvojen erojen lisäksi myös niiden hajontojen erot, ja lasketaan ν-arvo, jota verrataan kriittiseen ν_o-arvoon. Jos laskettu ν-arvo on pienempi tai yhtä suuri kuin kriittinen arvo, nollahypoteesi hyväksytään, mutta jos se on suurempi, nollahypoteesi hylätään.

Tilastollisessa analyysissä on tärkeää ymmärtää, että testit eivät aina anna yksiselitteistä vastausta. Tilastollinen merkitsevyys ei aina tarkoita käytännön merkityksellisyyttä, ja usein on tärkeää tarkastella myös aineistojen taustaa, mahdollisia virhelähteitä ja muita tekijöitä, jotka voivat vaikuttaa tuloksiin. On myös syytä muistaa, että tilastolliset testit perustuvat tiettyihin oletuksiin, kuten normaalijakaumaan, ja mikäli nämä oletukset eivät pidä paikkansa, tulokset voivat olla harhaanjohtavia. Tämän vuoksi tilastollinen analyysi on vain yksi osa suurempaa päätöksentekoprosessia ja se tulee yhdistää asiantuntevaan aineiston tulkintaan ja kontekstiin.

Miten tunnistaa poikkeavat tulokset ja epävarmat mittaustulokset laboratoriovertailuissa?

Laboratorioiden välinen vertailu on tärkeä osa laadunvalvontaa ja varmistamista, mutta se ei ole vapaa haasteista, erityisesti silloin, kun tulosten välinen vaihtelu voi johtua poikkeavista arvoista, joita ei ole mahdollista selittää normaaleilla virheillä. Tässä yhteydessä on olennaista käyttää oikeita tilastollisia testejä poikkeavien arvojen tunnistamiseen ja epävarmojen tulosten arvioimiseen.

Yksi yleisesti käytetyistä menetelmistä poikkeavien tulosten havaitsemiseksi on Grubbsin testi, joka soveltuu erityisesti silloin, kun vertaillaan useampia laboratoriotuloksia ja halutaan tunnistaa yksittäisiä poikkeavia havaintoja. Tämä testi on tehokas, koska se mahdollistaa yksittäisten arvojen havaitsemisen ja poissulkemisen ilman, että koko datan luotettavuus kärsii. Sen soveltaminen edellyttää kuitenkin, että vertailtavien laboratoriotulosten määrä on yli kaksi ja että sarjoissa on yhtä monta tulosta. Grubbsin testin avulla voidaan laskea tilastollinen arvo, joka verrataan taulukossa esitettyyn kriittiseen arvoon. Jos laskettu arvo ylittää kriittisen arvon, havaittu tulos voidaan katsoa poikkeavaksi. Tällöin tulos poistetaan ja testi toistetaan, kunnes poikkeavat arvot on saatu poistettua.

Toinen tärkeä menetelmä on Cochranin testi, joka tarjoaa menetelmän poikkeavien tulosten tunnistamiseen useiden laboratoriotulosten joukossa. Tämä testi kannattaa suorittaa ennen Grubbsin testiä, koska se on tehokkaampi, kun laboratoriotuloksia on useita. Cochranin testissä lasketaan kutakin laboratoriotulosta varten standardipoikkeama ja verrataan tätä arvoa kriittisiin arvoihin, jotka määräytyvät laboratorion määrän ja vertailtavien tulosten mukaan. Jos testin arvo ylittää tietyt rajat, voidaan tulokset katsoa epävarmoiksi tai poikkeaviksi.

Kolmas käyttökelpoinen tilastollinen työkalu on Hampelin testi, jota voidaan käyttää erityisesti silloin, kun halutaan tunnistaa poikkeavat arvot ilman, että ne perustuvat tavallisiin hajontalaskelmiin. Hampelin testissä käytetään mediaania ja poikkeamia siitä, mikä tekee menetelmästä erityisen soveltuvan, kun tulokset eivät noudata normaalijakaumaa. Jos poikkeama mediaanista ylittää tietyn arvon, voidaan kyseinen arvo luokitella poikkeavaksi.

Z-score on myös hyödyllinen työkalu epävarmojen ja poikkeavien tulosten tunnistamisessa. Tämä menetelmä laskee kuinka paljon kunkin laboratorion tulos poikkeaa odotetusta tai viitearvosta, ottaen huomioon laboratoriotulosten ja viitearvon väliset erot sekä näiden virhetermit. Z-arvon avulla voidaan nopeasti arvioida, onko tulos hyväksyttävä, epävarma vai hylättävä. Jos Z-arvo on alle 2, tulos on tyydyttävä, mutta jos se on yli 3, tulos on epätarkka ja voidaan katsoa poikkeavaksi.

Vaikka nämä testit tarjoavat hyvät työkalut poikkeavien arvojen havaitsemiseksi, on tärkeää ymmärtää myös se, että tilastollisten testien käyttö ei ole aina yksiselitteistä. Poikkeavien tulosten poistaminen saattaa vaikuttaa tulosten luotettavuuteen, ja useissa tapauksissa on suositeltavaa käyttää useampaa testiä yhdessä, jotta saadaan kattavampi kuva tulosten luotettavuudesta. Lisäksi on hyvä muistaa, että tilastollinen testaaminen ei aina pysty tunnistamaan kaikkia virheitä, vaan se edellyttää myös asiantuntevaa analyysia ja tulkintaa.

Lopuksi on tärkeää muistaa, että tilastolliset testit, kuten Grubbsin testi, Cochranin testi ja Z-score, tarjoavat tehokkaita välineitä poikkeavien tulosten tunnistamiseen, mutta niiden käyttö vaatii huolellista tulkintaa ja asiantuntemusta. Poikkeamien poistaminen ei aina tarkoita, että tulokset olisivat virheellisiä, vaan saattaa olla tarpeen tarkastella niitä tarkemmin kontekstissa, jossa mittauksia on tehty.