I en leksikalsk beslutningsoppgave blir deltakerne bedt om å avgjøre om et ord er ekte eller ikke. Dette innebærer at deltakerne, basert på en bestemt stimuli (for eksempel et ord eller et ikke-ord), må bestemme om de har sett et kjent ord. På et konkret nivå handler det om å måle responsene deres, som kan være riktig eller feil, samt tiden det tar å svare.

La oss se på et praktisk eksempel. I det første forsøket, hvis ordet er "rurble" (et ikke-ord), vil den riktige responsen være å trykke på en tast som indikerer at dette ikke er et ord. I det andre forsøket, hvor ordet er "monkey", er svaret å trykke på tasten som indikerer at dette er et ekte ord. Responsene kan deretter analyseres for å undersøke hvordan ulike faktorer, som ordets frekvens i språket, påvirker beslutningstiden og nøyaktigheten.

For å analysere effekten av ordets frekvens på responsene, kan man bruke statistiske modeller som tar høyde for både tid og korrekthet. En vanlig metode er å bruke hierarkiske modeller som tillater at dataene justeres for individuelle forskjeller mellom deltakerne. I eksemplet er log-transformert frekvens brukt som en prediktor for respons-tid og nøyaktighet. Denne metoden gir innsikt i hvordan ord med høy frekvens (som er mer vanlige) blir identifisert raskere og mer nøyaktig enn ord med lav frekvens.

Det finnes to hovedmodeller som kan brukes til å analysere slike data: en modell for responstid (RT) og en for nøyaktighet. Den første modellen fokuserer på responstid for riktige svar på ord (og ikke på ikke-ord), mens den andre modellen ser på nøyaktigheten til svarene, og begge benytter en form for log-transformert frekvens som en prediktor. For begge modellene kan man bruke programvare som brms, som tillater tilpasning av log-normal sannsynlighet for responstider og Bernoulli-sannsynlighet for nøyaktighet.

For responstidmodellen, kan man for eksempel bruke en log-normal modell med frekvensen som prediktor. Når man analyserer resultatene, ser man typisk at høyfrekvente ord gir kortere responstider, som er et tegn på at deltakerne gjenkjenner dem raskere. På den andre siden, i nøyaktighetsmodellen, kan man forvente at ord med høy frekvens også gir mer nøyaktige svar, fordi deltakerne er mer kjent med disse ordene. For et spesifikt datasett, kan det imidlertid være tilfeller der respons-tid og nøyaktighet ikke har samme retning: for eksempel kan mer frekvente ord føre til lengre responstider, men fortsatt føre til høyere nøyaktighet.

Selv om analysene for responstid og nøyaktighet vanligvis behandles separat, er det viktig å forstå at disse to variablene ofte er relatert. Dette kalles et hastighet-nøyaktighet-forhold, og mange eksperimenter viser at deltakerne gjør raskere feil med lavfrekvente ord. Dette betyr at når man studerer disse dataene, kan man få innsikt i både hvordan ordfrekvens påvirker hastigheten på gjenkjenning, samt hvordan det påvirker hvor nøyaktige deltakerne er i sine svar.

En annen nyttig metode for å analysere forholdet mellom responstid og nøyaktighet er bruk av kvantilprobabilitetsplott, som gir en visuell fremstilling av hvordan responstiden er fordelt for korrekte og feilaktige svar, og hvordan dette varierer avhengig av betingelser som ord vs. ikke-ord. Denne teknikken viser fordelingen av responstider for forskjellige kvantiler (for eksempel 10%, 30%, 50%, 70%, og 90%) for både korrekte og feilaktige svar. Den gjør det mulig å visuelt utforske hvordan feil og riktige svar fordeler seg på responstidsskalaen.

En kvantilprobabilitetsplott kan bygges ved å gruppere dataene etter eksperimentelle betingelser (som ord vs. ikke-ord), og deretter beregne ønskede kvantiler for responstidene for både korrekte og feilaktige svar. Ved å analysere slike plott, kan man få en dypere forståelse av hvordan responstiden varierer med ulike typer stimuli, og hvordan deltakerne håndterer de ulike utfordringene som oppstår i oppgaven.

Det er viktig å merke seg at svar på høyfrekvente ord ofte gir kortere responstider, mens feilaktige svar vanligvis vises på venstre side av diagrammet, som representerer lavere responstider. Korrekte svar vises på høyre side, hvor responstidene er lengre. Dette forholdet kan også brukes til å undersøke eventuelle avvik eller inkonsekvenser i deltakerens ytelse på oppgaven.

I tillegg til de nevnte modellene og metodene, er det flere faktorer som kan spille inn i analysen av leksikalsk beslutningstaking, som for eksempel deltakerens individuelle forskjeller, oppgavens vanskelighetsgrad, og hvordan informasjonen presenteres. For eksempel kan ordets lengde, betydning eller kontekst påvirke beslutningstiden og nøyaktigheten.

Det er også nyttig å vurdere hvordan individuelle forskjeller, som kognitive evner, påvirker ytelsen i slike oppgaver. Deltakere med raskere reaksjonstid kan ha lettere for å identifisere høyfrekvente ord, mens de som er mer systematiske kan gjøre færre feil på lavfrekvente ord, til tross for lengre responstider. Dette kan gi ytterligere innsikt i hvordan kognitiv prosessering fungerer under slike oppgaver.

Hvordan vurderer vi modellens egnethet og priorvalg i Bayesiansk regresjon?

En høy sannsynlighet for at en effekt er positiv betyr ikke nødvendigvis at effekten er ulik null. Det indikerer snarere at det er mer sannsynlig at effekten er positiv enn negativ. For å hevde at effekten sannsynligvis ikke er null, må man sammenligne modellen med et alternativ der effekten er satt til null. Dette er et sentralt tema i modellvalg, som blir grundigere behandlet senere.

Når modellen har konvergert og vi har posteriorfordelinger for parametrene, er det likevel ingen garanti for at modellen tilstrekkelig beskriver dataene. For å undersøke den deskriptive egnetheten, brukes ofte posterior predictive checks. Ved å simulere data fra modellens posterior og sammenligne disse med observerte data, kan vi visualisere modellens evne til å fange opp datamønstre. For eksempel kan man iterere over ulike nivåer av en forklarende variabel, som "load", og visualisere posterior predikert distribusjon opp mot observerte verdier. Ofte vil spredningen i data være bred, og det kan være vanskelig å trekke klare konklusjoner. Dette betyr ikke nødvendigvis at modellen er dårlig, men understreker usikkerheten i data og modell.

I tillegg til direkte sammenligning av distribusjoner, kan man undersøke hvordan statistikker, som gjennomsnitt, fordeler seg under modellens prediksjoner. Dersom de observerte gjennomsnittene ligger i ytterkantene av prediksjonsfordelingen, kan dette indikere at modellen ikke fanger opp alle mønstre i data, eller at forskjellene i realiteten kan være mindre monotone enn antatt. Likevel, hvis observasjonene ligger innenfor det predikerte området, kan det også være at vi overtolker tilfeldig variasjon.

Når vi beveger oss til en annen type data, som responstider, kan en log-normal modell være mer passende, ettersom responstider ofte er skjevt fordelt. En modell for responstid kan formuleres slik at logaritmen av responstid følger en normalfordeling med parametere som inkluderer en effekt av "trial" (forsøk). Her er det viktig å velge priors som gir mening i sammenhengen. For eksempel kan vi bruke en prior for interceptet som er normalfordelt med et gjennomsnitt og standardavvik valgt ut fra tidligere kunnskap, og en positiv truncert normalfordeling for standardavviket. Effekten av trial, 𝛽, kan ha en normalfordelt prior sentrert på null, som tillater både forbedring og forverring i responstid over tid.

Å forstå hvordan priorene påvirker modellens prediksjoner er kritisk. Ved å simulere prior predictive checks kan vi undersøke hvilke data vi implisitt forventer før vi ser på de faktiske dataene. For eksempel kan vi plotte medianforskjeller i responstid mellom påfølgende forsøk for å se om prioren gir plausible variasjoner. En vid prior kan føre til svært ekstreme prediksjoner, som ikke er realistiske, mens en smalere prior kan begrense denne usikkerheten til et mer plausibelt område. Det er derfor viktig å kalibrere priors for å balansere fleksibilitet og realisme.

Å velge priors kan virke overveldende og arbeidskrevende, men dette gjøres ofte bare én gang for en gitt eksperimentell kontekst. Erfaringer og resultater fra tidligere eksperimenter kan gi verdifull informasjon som kan brukes til å informere priors. Selv estimater fra frekventistiske analyser kan bidra til dette. Dermed kan man oppnå konsistente og

Hvordan analysere interaksjoner i generaliserte lineære modeller og ikke-lineære modeller?

Interaksjoner i statistiske modeller er et kraftig verktøy for å forstå hvordan forskjellige faktorer påvirker utfallet av en avhengig variabel sammen. Når vi jobber med generaliserte lineære modeller (GLM), kan vi bruke forskjellige tilnærminger for å modellere slike interaksjoner, spesielt når vi har ikke-lineære sammenhenger i dataene. Dette gjelder for eksempel logistiske modeller, som benytter en logistisk funksjon som linkfunksjon for å forutsi sannsynligheten for et gitt utfall. Her ser vi på hvordan man kan analysere interaksjoner i slike modeller.

En GLM som logistisk regresjon, benytter en linkfunksjon som transformerer de lineære prediksjonene (ofte kalt latent prediktor) til sannsynligheter. For en logistisk modell er linkfunksjonen definert som:

P(y=1η)=11+exp(η)P(y = 1 | \eta) = \frac{1}{1 + \exp(-\eta)}

Her representerer η\eta den latente lineære prediktoren, som kan beregnes som en lineær kombinasjon av konstantleddet, hovedvirkningene og interaksjonene mellom ulike faktorer. For eksempel, i et eksperiment med to faktorer A og B, kan η\eta beregnes som:

η=α+βAxA+βBxB+βA×BxA×xB\eta = \alpha + \beta_A \cdot x_A + \beta_B \cdot x_B + \beta_{A \times B} \cdot x_A \times x_B

Hvor α\alpha er interceptet, βA\beta_A og βB\beta_B er koeffisientene for hovedvirkningene av faktorene A og B, og βA×B\beta_{A \times B} representerer interaksjonen mellom disse faktorene. Denne lineære prediktoren, etter å ha blitt transformert med den logistiske funksjonen, gir oss sannsynligheten for at et gitt utfall oppstår.

Når man analyserer interaksjoner i slike modeller, er det viktig å forstå hvordan disse interaksjonene kan påvirke den avhengige variabelen. For eksempel, når vi ser på resultatene fra en logistisk regresjon med to faktorer, kan vi undersøke hvordan kombinasjonen av nivåene av de to faktorene påvirker sannsynligheten for at et utfallet skjer, i forhold til hva vi ville forvente basert på de individuelle hovedvirkningene. Dette er viktig når vi har flere nivåer for hver faktor og ønsker å forstå hvordan effektene av disse faktorene ikke nødvendigvis er additive.

Et eksempel på en slik modell kan være en 2x2 faktoriell design hvor vi har to faktorer, A og B, hver med to nivåer. Hvis vi for eksempel har en avhengig variabel som angir om en deltaker lykkes i en oppgave (1 for suksess, 0 for feil), kan vi bruke en logistisk modell for å estimere sannsynligheten for suksess under forskjellige betingelser.

I et slikt eksperiment kan vi bruke skalering av summen for å representere kontraster mellom nivåene av de to faktorene. Dette gjør det enklere å tolke koeffisientene, spesielt når vi ser på interaksjoner mellom faktorene. For å analysere dataene kan vi for eksempel bruke programvare som R og dens brms-pakke, som tillater oss å spesifisere en logistisk regresjonsmodell, og deretter analysere hvordan de ulike interaksjonene påvirker utfallet.

Et viktig aspekt ved dette er at vi kan beregne sannsynlighetene for suksess under forskjellige betingelser ved å bruke de latente lineære prediktorene for hver betingelse og transformere dem med den logistiske funksjonen. Dette gir oss en sannsynlighetsskala, som gjør det lettere å presentere og tolke resultatene. For eksempel, hvis vi beregner de latente prediktorene for alle betingelser i eksperimentet, kan vi deretter bruke den logistiske funksjonen for å få sannsynlighetene for suksess i hver betingelse.

I tillegg til å beregne sannsynlighetene, er det også viktig å forstå hvordan usikkerheten i modellens estimater kan påvirke resultatene. Ved å bruke posterior prøver fra modellen kan vi beregne troverdige intervaller for sannsynlighetene, som gir oss en mer robust forståelse av hvor pålitelige våre estimater er. Dette er spesielt nyttig i Bayesiansk analyse, hvor vi kan beregne Bayes faktorer for å vurdere styrken på bevisene for de ulike effektene.

Når vi ser på resultatene av en slik analyse, kan vi få innsikt i hvilke faktorer og interaksjoner som har størst effekt på sannsynligheten for suksess i oppgaven. For eksempel, hvis vi ser at kombinasjonen av faktorer A1 og B2 gir en høyere sannsynlighet for suksess enn de andre betingelsene, kan dette indikere en sterk interaksjonseffekt mellom disse faktorene.

Det er også viktig å merke seg at i modeller med ikke-lineære linkfunksjoner, som logistisk regresjon, kan effektene av hovedvirkningene og interaksjonene ikke være lineære i forhold til de uavhengige variablene. Derfor må vi være forsiktige når vi tolker koeffisientene, spesielt når vi prøver å generalisere resultatene til andre kontekster.

Slike analyser gir oss et kraftig verktøy for å forstå de komplekse relasjonene mellom variabler, spesielt når vi har flere nivåer av faktorer og ønsker å undersøke hvordan disse nivåene interagerer for å påvirke et utfall. Men for å få en dypere forståelse av effektene, bør vi alltid vurdere både hovedvirkninger og interaksjoner, samt usikkerheten i modellens estimeringer.