I epidemiologiske studier, som for eksempel studier som undersøker sammenhengen mellom eksponering for skadelige stoffer og utvikling av sykdommer, er det viktig å forstå hvordan data blir presentert og tolket. En sentral utfordring er hvordan man håndterer data som kommer fra parvise observasjoner av deltakerne, for eksempel når en deltaker blir utsatt for et stoff og en annen ikke blir det. I slike tilfeller er det nødvendig å bruke spesifikke statistiske metoder for å analysere resultatene og trekke pålitelige konklusjoner.

Et eksempel på dette kan finnes i Schiffman og kollegaers studie fra 1987, som undersøkte effektene av aspartam versus placebo på et utvalg av deltakere. Forskerne presenterte dataene sine i en omfattende tabell som viste hvordan deltakerne rapporterte ulike bivirkninger, som hodepine, svimmelhet og kvalme, både ved inntak av aspartam og placebo. Det er viktig å merke seg at prosentandelene som ble rapportert for disse bivirkningene – 35 % ved aspartam og 45 % ved placebo – ikke nødvendigvis reflekterer de eksakte resultatene for alle 40 deltakerne. I stedet gir disse prosentene en indikasjon på hvordan forskjellige deltakergrupper reagerte på behandlingen.

Schiffman og kollegaene brukte McNemar’s test for å vurdere forskjeller mellom de to behandlingene (aspartam og placebo), og resultatene indikerte at det ikke var noen signifikant forskjell i forekomsten av hodepine mellom de to behandlingene, selv om det var en liten tendens til at flere rapporterte hodepine under placebo. Den statistiske usikkerheten rundt resultatene ble ytterligere illustrert av et bredt konfidensinterval, som spente fra -35 % til +12 % i forskjellen i insidensrate mellom aspartam og placebo.

Når man analyserer data på denne måten, er det viktig å forstå hvordan statistiske målinger som "odds ratio" og konfidensintervall kan hjelpe med å tolke risiko og usikkerhet. Et annet eksempel som kan illustrere dette er Janerich og kollegaers case-kontrollstudie fra 1990, som undersøkte risikoen for lungekreft i forhold til eksponering for tobakk i husholdningen. Her ble oddsratioen brukt til å vurdere risikoen for lungekreft i ulike grupper av deltakerne, avhengig av hvor mye de hadde vært utsatt for tobakk i ulike livsperioder. For eksempel, de som ble utsatt for høye nivåer av tobakk i barndommen og ungdommen hadde en odds ratio på 2,07, noe som betyr at de hadde mer enn dobbelt så høy risiko for å utvikle lungekreft sammenlignet med de som ikke var utsatt for tobakk.

Det er imidlertid viktig å merke seg at odds ratioen på 2,07 er statistisk signifikant, men konfidensintervallet for dette tallet er relativt bredt (1,16 til 3,68), noe som betyr at resultatet kan variere hvis studien ble gjentatt flere ganger. Denne usikkerheten i de statistiske resultatene påpeker behovet for forsiktighet når man tolker slike tall. Forskerne anbefalte at man ikke skulle generalisere disse resultatene utover de 191 deltakerne som ble inkludert i studien, da reproduserbarheten av resultatene kan være utilstrekkelig.

For leseren som prøver å forstå de underliggende prinsippene bak slike studier, er det viktig å erkjenne at de statistiske målingene og tabellene som brukes i epidemiologiske studier, som for eksempel odds ratioer og konfidensintervall, gir oss et mål på usikkerheten i estimatene våre. Det er viktig å forstå at alle studier er begrenset av sitt design og sitt utvalg, og at konklusjonene kan variere hvis studien gjentas på et annet utvalg av deltakerne. Det er også viktig å merke seg at de statistiske verktøyene som brukes i slike studier ikke nødvendigvis gir en fullstendig forklaring på årsakssammenhenger. De gir et mål på assosiasjon, men de kan ikke alltid bevise at én faktor forårsaker en annen.

I tillegg er det verdt å merke seg at studier som benytter seg av data fra parvise observasjoner – der hver deltaker er matchet med en kontroll – gir verdifull informasjon om forskjellene mellom de ulike behandlingsalternativene. Likevel er det viktig å huske at slike studier ikke nødvendigvis fanger opp alle mulige faktorer som kan påvirke resultatene, og at det alltid er behov for videre forskning for å styrke konklusjonene.

Hvordan vurdere nøyaktigheten i regresjonsmodeller gjennom feil og korrelasjon

Feilene i regresjonsmodellen, uttrykt gjennom minste kvadraters metoden, gir en indikasjon på hvor godt de predikerte verdiene stemmer overens med de observerte verdiene. Dette forholdet kan måles gjennom feilsummen av kvadrater. Feilsummen av kvadrater (SSE) representerer den totale avviket mellom de observerte verdiene og de predikerte verdiene fra regresjonsmodellen. På den annen side er den totale summen av kvadrater (SST) et mål på feilen i den enkleste modellen, der det antas at alle observasjonene på resultatvariabelen er identiske og lik gjennomsnittet. Forholdet mellom SSE og SST gir oss en indikasjon på hvor godt regresjonsmodellen forbedrer seg sammenlignet med den enkle modellen.

Summen av kvadratene for feilen (SSE) er alltid mindre enn eller lik den totale summen av kvadrater (SST). Differensen mellom disse to kalles regresjons-summen av kvadrater (SSR). Når vi setter dette i formelen SST = SSR + SSE, kan vi få en tydeligere forståelse av hvordan regresjonsmodellen forholder seg til en "rå" modell som antar at alle observasjoner er lik gjennomsnittet. Denne forståelsen danner grunnlaget for den statistiske metoden kjent som bestemmelseskoeffisienten, også kalt R², som kan uttrykkes som:

R2=1SSESSTR^2 = 1 - \frac{SSE}{SST}

Verdien av R² kan variere mellom 0 og 1, der en verdi nær 1 indikerer at regresjonsmodellen gir nøyaktige prediksjoner. En verdi nær 0 antyder derimot at modellen er omtrent like unøyaktig som den enkle antagelsen at alle observasjoner er like gjennomsnittet. For eksempel, hvis R² er 0,40, betyr det at 60 % av feilen i prediksjonene kan tilskrives en enklere modell, mens 40 % forklares av regresjonsmodellen. På samme måte, hvis R² er 0,70, vil 30 % av feilen fortsatt stamme fra den enkle modellen.

Feilsummen av kvadrater (SSE) sammenlignet med den totale summen av kvadrater (SST) gir en idé om hvordan regresjonsmodellen står i forhold til en grunnleggende modell. For eksempel, hvis R² er 0,70, så vil feilen i appresjonene være 30 % av den totale feilen i den rudimentære modellen som antar at alle observasjoner er identiske med gjennomsnittet.

Korrelasjonskoeffisienten er et annet verktøy som ofte benyttes for å vurdere forholdet mellom to kvantitative variabler. Den gir et mål på hvor nært observasjonene på de to variablene ligger til regresjonslinjen. Verdien av korrelasjonskoeffisienten (r) kan være nær 1,0 eller -1,0 hvis observasjonene er tett knyttet til regresjonslinjen, og nær 0 hvis de er langt unna. Det er viktig å merke seg at korrelasjonskoeffisienten kun er nyttig når forholdet mellom de to variablene kan beskrives med en rett linje.

Forholdet mellom korrelasjonskoeffisienten og regresjonsmodellen er tydelig i den matematiske formelen. Kvadratet av korrelasjonskoeffisienten (r²) tilsvarer bestemmelseskoeffisienten til regresjonsmodellen. For eksempel, hvis r = 0,40 eller -0,40, vil R² være 0,16, noe som betyr at modellen forklarer 16 % av variasjonen i de observerte resultatene, og at 84 % av feilen stammer fra den enkle modellen.

P-verdier, som ofte brukes i statistiske signifikansprøver, er også relevante her. En p-verdi under 0,05 indikerer at avvikene i koeffisientene eller korrelasjonskoeffisientene ikke sannsynligvis kan tilskrives tilfeldigheter. Dette betyr at forholdet mellom variablene er statistisk signifikant. Men en lav p-verdi betyr ikke nødvendigvis at forholdet er sterkt eller klinisk viktig. Det kan være trivielt, og det er viktig å ikke automatisk anta at det er et praktisk betydningsfullt forhold. En p-verdi større enn 0,05 antyder at avvikene kan være tilfeldige, og det er derfor viktig å være kritisk til om forholdet virkelig eksisterer.

Disse statistiske verktøyene kan gi oss innsikt i hvor godt en regresjonsmodell predikerer, men de kan ikke alene bekrefte styrken eller relevansen av et forhold. Det er også viktig å vurdere konteksten for modellen, kvaliteten på dataene, og om andre faktorer kan påvirke resultatene. For eksempel, hvis dataene inneholder støy eller er dårlig representert, kan selv en høy R²-verdi være misledende.