Regresjonsanalyse gir oss et nyttig verktøy for å forstå og kvantifisere forholdet mellom to variabler. En regresjonsligning beskriver dette forholdet ved hjelp av en intercept (b0) og en stigning (b1). En viktig del av regresjonsanalysen er forståelsen av hvordan disse koeffisientene, særlig stigningen, påvirker tolkningen av dataene. I mange tilfeller er det stigningen som gir den mest relevante innsikten, ettersom den beskriver hvordan den uavhengige variabelen (x) påvirker den avhengige variabelen (ŷ).

Stigningen, b1, uttrykker hvordan den estimerte verdien av ŷ endres i gjennomsnitt når verdien av x øker med én enhet. For eksempel, i et tilfelle med sorghumavling, kan b1 indikere endringen i avlingsutbytte for hver prosentvis økning i skadedyrinfestasjon. Hvis b1 er −101,4, betyr det at for hver prosent økning i skadedyrinfestasjon, reduseres det gjennomsnittlige utbyttet med 101,4 kg/ha.

Det er viktig å merke seg at stigningen b1 kan være enten positiv eller negativ. Når b1 er negativ, betyr det at ŷ synker når x øker, og når b1 er positiv, betyr det at ŷ øker med en økning i x. I dette tilfellet er forholdet klart: jo høyere skadedyrinfestasjon, desto lavere blir avlingen, på gjennomsnittlig 101,4 kg/ha per prosent økning.

Det er også viktig å påpeke at regresjonsmodellen som benyttes, er et estimat for forholdet mellom x og ŷ i en populasjon, men at dette forholdet kan være utsatt for variasjon mellom forskjellige prøver. Interceptet b0 kan noen ganger være vanskelig å tolke, særlig når x = 0 ikke representerer et realistisk eller tilgjengelig datamiljø. For eksempel, når x = 0, kan det føre til en mening som ikke er relevant for praktiske formål.

I tillegg må vi vurdere hvordan vi beregner usikkerheten knyttet til regresjonsparametrene. Hver prøve gir forskjellige estimater for både b0 og b1 på grunn av prøvetakingsfeil, og derfor er både b0 og b1 assosiert med en standardfeil (s.e.). Dette betyr at det er en samplingfordeling for både interceptet og stigningen. Den normale fordelingen til stigningen b1 kan gi oss et 95 % konfidensintervall (CI), som viser usikkerheten rundt estimatet. For eksempel, et 95 % CI for b1 kan være mellom −118,0 og −84,8 kg/ha, noe som gir et spenn på hvor mye vi kan forvente at estimatet vil variere fra prøve til prøve.

Når vi utfører regresjonsanalyser, er det viktig å huske på at vi ikke nødvendigvis kan påstå at endringer i x direkte forårsaker endringer i ŷ, med mindre studien er eksperimentell. Dette skillet mellom korrelasjon og kausalitet er avgjørende for riktig tolkning av resultatene. Med andre ord, selv om vi finner en statistisk signifikant sammenheng, betyr ikke det at endringer i x nødvendigvis forårsaker endringer i ŷ.

I tillegg er det en viktig statistisk test som kan brukes for å undersøke om stigningen er signifikant forskjellig fra null. Dette kan gjøres ved å gjennomføre en t-test for regresjonsparameterne. Nullhypotesen (H0) i dette tilfellet er at stigningen β1 = 0, noe som betyr at det ikke er noe forhold mellom x og ŷ i populasjonen. Hvis vi kan avvise nullhypotesen med tilstrekkelig bevis, kan vi konkludere med at det er et signifikant forhold mellom de to variablene.

Når man utfører regresjonsanalyser, er det også viktig å vurdere om forutsetningene for regresjonsmodellen er oppfylt. Dette inkluderer blant annet at forholdet mellom x og y er lineært, at dataene er uavhengige og at feilene (residualene) har en normalfordeling. Hvis disse forutsetningene ikke er oppfylt, kan resultatene fra regresjonsanalysen være upålitelige.

I tillegg til selve regresjonsanalysen, bør vi også vurdere andre faktorer som kan påvirke resultatene. Eksempelvis kan multikollinearitet (hvis flere uavhengige variabler er sterkt korrelert med hverandre) føre til at estimatene for regresjonskoeffisientene blir upålitelige. Videre er det viktig å forstå at

Hvordan variasjon i prøver påvirker estimater: Begreper som prøvetaking, standardfeil og normalfordeling

Når vi samler inn data fra et utvalg, varierer verdiene av ulike statistikker fra prøve til prøve. Denne variasjonen er en sentral del av statistisk analyse og beskriver hvordan de ulike verdiene av et statistisk mål, som for eksempel gjennomsnittet av et utvalg, kan skifte fra ett tilfeldig trukket utvalg til et annet. Dette fenomenet kalles "prøvetakingsvariasjon". For å forstå dette bedre kan vi ta et eksempel der vi spinner et roulettehjul flere ganger. Hvis vi spinner hjulet 15 ganger, kan vi forvente at gjennomsnittet av de observerte tallene (gjennomsnittet for prøven, x̄) varierer fra prøve til prøve. Den resulterende distribusjonen av gjennomsnittsverdiene for alle de mulige prøvene fra et stort antall tilfeldige trekkninger vil ofte være omtrent klokkeformet (eller normalfordelt), som er et vanlig mønster i statistikk.

Når antallet forsøk økes, for eksempel hvis vi spinner hjulet 50 ganger i stedet for 15, vil gjennomsnittene fortsatt variere fra prøve til prøve, men variasjonen vil være mindre. Distribusjonen av disse gjennomsnittene vil fortsatt være klokkeformet, men den vil være mer konsentrert rundt et bestemt punkt. Dette skjer fordi større prøver gir mer presise estimater av den sanne gjennomsnittsverdien. Øker vi antallet til 100 eller 250 forsøk, ser vi en ytterligere reduksjon i variasjonen mellom gjennomsnittene. Dermed blir distribusjonen enda mer spisset, noe som betyr at vi kan stole mer på resultatene våre etter hvert som prøvestørrelsen øker.

For å forstå hvordan variasjonen i prøvene påvirker de observerte statistikkene, benytter vi begrepene prøvemiddel og standardfeil. Prøvemidlet (som er gjennomsnittet for et utvalg) er et estimat av det sanne gjennomsnittet i populasjonen, og standardfeilen er et mål på hvor mye prøvemidlene kan variere fra den sanne verdien. Standardfeilen kan også sees på som standardavviket for den distribusjonen av prøvemidler som vi kunne ha fått ved å trekke ut forskjellige utvalg fra samme populasjon.

Som vi kan se i figuren, vil verdiene for prøvemidlet være nærmere det sanne gjennomsnittet (som representerer populasjonen) jo større prøven er. For små prøver, som de med bare 15 forsøk, kan vi se større variasjon, og et prøvemiddel på 15 eller 20 er ikke uvanlig. Men når vi ser på prøver med 250 forsøk, er det lite sannsynlig at vi får et prøvemiddel som er mindre enn 15 eller større enn 20. Dette viser hvordan standardfeilen reduseres med økende prøvestørrelse, noe som betyr at estimatene våre blir mer presise.

Den standardfeilen vi diskuterer her, refererer til variasjonen som oppstår i distribusjonen av prøvemidlene. Denne variasjonen er av stor betydning for hvordan vi kan vurdere presisjonen av et estimat. Jo mindre standardfeil, desto mer presist er vårt estimat av populasjonens sanne parameter. I praktisk forskning er det viktig å merke seg at standardfeil kun refererer til variasjonen som beskriver prøven, og ikke til variasjonen i hele populasjonen. Derfor er standardfeilene et mål på hvordan prøvestatistikker varierer mellom ulike prøver, og ikke et mål på hvordan individuelle verdier i en populasjon varierer.

Videre er det viktig å forstå forskjellen mellom standardavvik og standardfeil. Standardavviket måler hvordan individuelle verdier i en prøve eller populasjon varierer fra gjennomsnittet, mens standardfeil er et mål på hvor mye estimater av populasjonsparametere varierer fra prøve til prøve. Standardfeilene kan forkortes til SE eller s.e., for eksempel "standardfeil for prøvemiddel" kan skrives som SE(x̄). På den annen side refererer begrepet standardavvik til variasjonen mellom individuelle observasjoner.

Det er også viktig å forstå at ikke alle statistiske distribusjoner nødvendigvis er normalfordelte. Det finnes tilfeller der prøvetaking kan føre til en annen type distribusjon, men under de rette forholdene, og spesielt når prøvestørrelsen er stor nok, vil distribusjonene oftest nærme seg en klokkeformet (normal) fordeling. Dette gjør det mulig å bruke visse statistiske metoder for å gjøre konklusjoner om populasjonen, basert på utvalget.

I forskning er det nødvendig å være oppmerksom på at parametere i en populasjon ikke har en standardfeil, ettersom de ikke varierer fra prøve til prøve. Det er kun statistikkene som varierer, og de er derfor gjenstand for en distribusjon og en standardfeil. Å skille mellom disse to konseptene er essensielt for nøyaktig analyse og for å unngå vanlige misforståelser i statistisk arbeid.

Hvordan vurdere statistisk gyldighet og hypotesetesting av proporsjoner?

Ved gjennomføring av hypotesetesting for proporsjoner, er det visse betingelser som må være oppfylt for at resultatene skal være statistisk gyldige. En viktig betingelse for at man skal kunne bruke normalfordelingen som en tilnærming for prøveresultatene, er at både n × p og n × (1 − p) må være større enn fem. Her refererer n til antall observasjoner i utvalget, og p til den antatte proporsjonen i populasjonen som undersøkes. Det betyr at både n × p > 5 og n × (1 − p) > 5 må være oppfylt for at den normalfordelte tilnærmingen skal være pålitelig. Verdien 5 er en grov retningslinje; enkelte kilder kan bruke høyere verdier, som for eksempel 10.

Når disse betingelsene er oppfylt, kan man anta at prøvedistribusjonen for proporsjonene vil følge en tilnærmet normalfordeling. Dette er viktig, da man da kan benytte seg av de velkjente reglene for normalfordeling, som for eksempel 68-95-99.7 regelen, som gjør det lettere å forstå og analysere resultater. I tillegg antas enhetene som analyseres å være uavhengige, for eksempel gjennom et enkelt tilfeldig utvalg.

Hvis de statistiske gyldighetsbetingelsene ikke er oppfylt, finnes det alternative metoder som kan benyttes, som for eksempel binomialtest. Denne testen kan være et godt valg i situasjoner der det er tvil om at normalfordelingen er en god tilnærming for datamaterialet.

Et konkret eksempel på dette er når man tester om en terning er rettferdig. Hvis en terning rulles 50 ganger, og vi ønsker å teste om en spesifikk side på terningen kommer opp oftere enn forventet, kan vi benytte hypotesetesting. Dersom man får et resultat på n × p = 50 × (1/6) = 8.666 og n × (1 − p) = 50 × (5/6) = 41.666, begge større enn 5, kan vi trygt anta at normalfordelingen er en god tilnærming. En simulering av dette eksperimentet vil vise at prøvedistribusjonen følger en normalfordeling.

Derimot, dersom terningen rulles bare 10 ganger, kan resultatene bli mindre pålitelige. I dette tilfellet vil n × p = 10 × (1/6) = 1.666, som er lavere enn 5, og n × (1 − p) = 10 × (5/6) = 8.333, som fortsatt er høyere enn 5, men ikke tilstrekkelig til å garantere en god tilnærming til en normalfordeling. Simuleringen av dette eksperimentet vil vise en mer ujevn fordeling av resultatene, som indikerer at normalmodellen ikke er en god tilnærming.

En annen viktig faktor er forståelsen av hva en stor p-verdi betyr. For eksempel, i et eksperiment hvor man undersøker om en terning er lastet, kan en stor p-verdi ikke nødvendigvis bekrefte at terningen er rettferdig. En stor p-verdi betyr kun at det ikke er tilstrekkelig bevis for å avvise nullhypotesen, det vil si at resultatene ikke er usannsynlige under antakelsen om en rettferdig terning. Men det kan fortsatt være andre faktorer som påvirker resultatene, som for eksempel at terningen er lastet på en måte som ikke nødvendigvis fører til en signifikant endring i det spesifikke utfallet man undersøker.

I et annet eksempel, som den etologiske studien av dominerende atferd hos fugler, kan man sammenligne atferden mellom to forskjellige arter for å vurdere hvilken art som er mer dominerende i interaksjoner. Ved å undersøke antall vinnende interaksjoner for hver art, kan vi bruke hypotesetesting for å avgjøre om fordelingen av disse interaksjonene er lik for begge arter, med nullhypotesen om at begge artene vinner i omtrent 50 % av tilfellene. Hvis man observerer at én art vinner i 82,22 % av tilfellene, vil man teste om dette er en signifikant avvik fra nullhypotesen om 50 % fordelingen.

Statistisk gyldighet er essensiell for å sikre at konklusjonene fra testen er pålitelige. I dette tilfellet viser en z-verdi på 4.322, som er langt større enn 1.96, at det er svært sterke bevis mot nullhypotesen. Dette betyr at den dominerende atferden i dette eksempelet ikke er tilfeldig, og at den observerte atferden faktisk avviker betydelig fra hva som kunne vært forventet om begge arter var like dominante.

Når du gjennomfører hypotesetesting for proporsjoner, er det flere viktige elementer å huske på. For det første er det avgjørende å definere nullhypotesen og alternativ hypotesen klart. Deretter er det viktig å vurdere om de nødvendige betingelsene for normalfordelingen er oppfylt, slik at man kan bruke den tilnærmingen med trygghet. Videre må man beregne teststatistikken (z-verdi) og p-verdien for å kunne ta en beslutning basert på resultatene. Det er også viktig å vurdere resultatene i lys av hva de faktisk sier om bevisene for eller imot nullhypotesen. En stor p-verdi er ikke nødvendigvis en bekreftelse på at nullhypotesen er sann, men heller et tegn på at det ikke er tilstrekkelig bevis for å avvise den.