I den siste antagelsen i modellen, antar vi at forskjellen i gjennomsnittlig signal når vi sammenligner substantiver med cloze sannsynlighet på 0 og 0.1 er den samme som forskjellen når vi sammenligner substantiver med cloze verdier på 0.1 og 0.2 (eller 0.9 og 1). Dette er en forutsetning, og det er ikke nødvendigvis tilfelle i de faktiske dataene. Dette betyr at vi får en posterior for 𝛽 basert på antagelsen om at det finnes en lineær relasjon. Selv om denne antagelsen holder omtrent, vet vi fortsatt ikke hvor mye vi avviker fra den.
For å bygge modellen må vi velge sannsynlighet (likelihood) og priorer. En normalfordeling som sannsynlighet virker fornuftig for disse dataene: 𝑠𝑖𝑔𝑛𝑎𝑙𝑛 ∼ Normal(𝛼 + 𝑐_𝑐𝑙𝑜𝑧𝑒𝑛 ⋅ 𝛽, 𝜎), hvor 𝑛 = 1, … , 𝑁 er indekser for dataene, og 𝑠𝑖𝑔𝑛𝑎𝑙 er den avhengige variabelen (det gjennomsnittlige signalet i N400 spatiotemporale vinduet i mikrovolt). Vi vet at ERP-er (signals som er tidslåste til stimuli) har gjennomsnittlig amplitude på et par mikrovolt, noe som gjør at effektene av manipuleringen vanligvis ikke forventes å overstige 10𝜇𝑉. På forhånd kan vi anta at effektene kan være både negative og positive. Vi kan kvantifisere vår prior kunnskap om plausible verdier for 𝛽 som normalt fordelt, sentrert på null med en standardavvik på 10𝜇𝑉. Prioren for 𝛼 settes på samme måte, normalt fordelt og sentrert på null med et standardavvik på 10𝜇𝑉.
Når det gjelder standardavviket 𝜎 for signalfordelingen, er EEG-signaler ganske støyende, og standardavviket må være høyere enn null. Vi kan anta at den sanne standardavviket av signalet i et intervall har 95% sannsynlighet for å ligge innenfor et gitt område, og bruke en trukket normalfordeling (truncated normal distribution) for dette, med en plassering på null og en skala på 50.
Dette gir oss følgende priorer:
-
𝛼 ∼ Normal(0, 10)
-
𝛽 ∼ Normal(0, 10)
-
𝜎 ∼ Normal+(0, 50).
En modell som denne, kjent som en modell med full pooling, antar at alle parametrene er faste og ikke varierer fra deltaker til deltaker eller fra item til item. Denne tilnærmingen er enkel å forstå, men den overser mulige individuelle forskjeller mellom deltakerne, noe som kan være en stor feil hvis det finnes betydelige variasjoner mellom individer.
Derimot, en modell uten pooling (no pooling model) tar hensyn til at deltakerne kan ha forskjellige gjennomsnittsverdier og variasjoner i deres EEG-signaler. En av forutsetningene i den forrige modellen er å anta uavhengige observasjoner, men EEG-signaler er klustret etter deltaker og gjenstander. Det er rimelig å anta at EEG-signaler er mer like innenfor en deltaker enn mellom deltakerne.
I en modell uten pooling blir hver deltaker behandlet uavhengig, og modellen tilpasser parametrene (som intercept og slope) for hver deltaker individuelt. Dette gjør modellen mer fleksibel og realistisk, da den kan fange opp individuelle forskjeller i hvordan EEG-signalet reagerer på manipulasjonene. For denne typen modell er sannsynligheten fortsatt normalfordelt, men nå er modellen skrevet som:
I denne modellen kan priorene for interceptet (𝛼𝑖) og slope (𝛽𝑖) fortsatt settes til Normal(0, 10), mens standardavviket (𝜎) følger en normalfordeling med positiv støtte (Normal+(0, 50)).
En viktig detalj i denne modellen er at deltakerne må behandles som en faktor og ikke som numeriske verdier. Det betyr at vi ikke antar at deltaker nummer 3 vil vise 3 ganger sterkere effekt enn deltaker nummer 1. Dette er en viktig distinksjon for å unngå å feiltolke dataene som lineært proporsjonale.
Ved å bruke en modell med ingen pooling kan vi bedre fange opp individuelle variasjoner, men dette innebærer også at vi må modellere flere parametere, noe som kan føre til større kompleksitet i analysen.
I sum kan valget mellom en modell med full pooling og en modell uten pooling ha stor betydning for resultatene av analysen. Modellen uten pooling gir en mer fleksibel og realistisk tilnærming ved å ta hensyn til individuelle forskjeller, men kan være mer krevende å håndtere, spesielt når det er mange deltakere. Valget mellom disse modellene avhenger av forskningsspørsmålet og hvordan man ønsker å håndtere variasjonene mellom deltakerne.
Hvordan modellere EEG-data i et hierarkisk bayesiansk rammeverk: N400-effekten
I en hierarkisk bayesiansk modell, spesielt i sammenheng med EEG-data, er det flere viktige forutsetninger og prinsipper som styrer hvordan dataene skal behandles og hvilke antagelser som ligger til grunn for modelleringen. En spesiell interesseområde innen dette er N400-effekten, som relaterer seg til hvordan hjernen reagerer på forutsigbarhet i språklige stimuli. Modellen vi diskuterer, er et eksempel på hvordan man kan bruke hierarkisk modellering for å fange opp både individspesifikke og gruppe-spesifikke variabler i EEG-data.
I vår modell for EEG-data (𝑀ℎ), har vi flere antakelser som er nødvendige for at modellen skal være valid. Den første er at EEG-gjennomsnittene i N400-spatio-temporalvinduet følger en normalfordeling. Dette gir et godt grunnlag for å modellere de temporale mønstrene i EEG-signalet. Deretter antar vi at noen aspekter av både den gjennomsnittlige spenningen i signalet og effekten av forutsigbarhet er avhengig av hvert enkelt individ, og at disse to variablene kan være korrelert. Dette innebærer at vi ikke bare modellerer gjennomsnittlige effekter på gruppe-nivå, men også tillater variasjon på individ-nivå, der både intercept og skråning (slopes) kan variere fra person til person.
Videre antar modellen at det finnes et lineært forhold mellom forutsigbarheten (cloze probability) og EEG-signalet for hvert enkelt forsøk. Dette lineære forholdet er essensielt for å forstå hvordan forutsigbarhet påvirker hjernens respons i form av N400-bølgen.
Modellen vi presenterer er et videreutviklet forslag fra en tidligere modell (𝑀𝑣), som ikke antar noen korrelasjon mellom gruppe-nivå intercepts og slopes. Denne antagelsen utelukker eventuelle sammenhenger mellom de gjennomsnittlige effektene av forutsigbarhet og variasjonene på individ-nivå. Den bivariate normale fordelingen som benyttes, tillater både intercepts og slopes å variere samtidig, og gir oss en mer fleksibel modell som kan fange opp slike korrelasjoner.
For å definere modellens priors benytter vi normalfordelinger for både intercept (𝛼) og slope (𝛽). Disse distribusjonene har begge et gjennomsnitt på 0 og en standardavvik på 10. En viktig detalj i modellen er at vi bruker en spesiell prior for standardavviket, 𝜎, som er definert som en normalfordeling med en øvre grense (Normal+(0, 50)). Denne prioren reflekterer usikkerheten som kan være tilstede i dataene, samtidig som den holder verdiene realistiske og innenfor et fornuftig intervall.
Modellen tillater også korrelasjon mellom de forskjellige komponentene i intercept og slopes ved hjelp av en bivariate normalfordeling. Dette krever en definisjon av en varians-kovariansmatrise, hvor både variansene og kovariansene mellom intercept og slope blir eksplisitt modellert. Variansen for hver komponent (intercept og slope) defineres separat, og kovariansen mellom de to komponentene beskriver hvordan de er relatert til hverandre.
I denne settingen er det nødvendig å bruke et spesifikt sett med priors for å spesifisere denne kovariansen. Vi benytter oss av LKJ-priorer for korrelasjonen, som gjør det mulig å fange opp eventuelle sammenhenger mellom intercept og slope på en fleksibel måte. LKJ-prioren har en parameter, 𝜂, som styrer hvor sterke korrelasjonene skal være. Når 𝜂 = 2, som vi har valgt her, får vi en balansert prior som ikke favoriserer ekstreme korrelasjoner, men heller tillater en moderat usikkerhet om hvordan intercept og slope henger sammen.
Selv om denne modellen gir oss muligheten til å estimere korrelasjoner på individnivå, viser erfaring at dette ofte medfører lengre konvergens tid, ettersom estimeringene for korrelasjonen kan være usikre. Til tross for dette er det viktig å inkludere denne parameteren for å få en mer realistisk modell av de faktiske mekanismene som ligger til grunn for hjernens respons på forutsigbarhet i språklige stimuli.
En utfordring som kan oppstå når man implementerer slike modeller, er hvordan man håndterer variasjonen i dataene på tvers av individer og betingelser. For eksempel, i vår modell, vil det være viktig å vurdere hvordan individuelle forskjeller, som kognitive evner, kan påvirke N400-effekten. Samtidig er det nødvendig å være oppmerksom på at det kan være begrensninger i hvordan vi kan måle og inkludere slike individuelle forskjeller i modellene.
I videre analyser, som beskrevet i den påfølgende delen, kan vi utvikle enda mer kompleks modellering ved å bruke en full varians-kovariansmatrise på både individ- og betingelsesnivå. Denne tilnærmingen gir oss en mulighet til å fange opp alle former for varians og kovarians i dataene, men er avhengig av at eksperimentelt design tillater slike målinger.
Modellen som er beskrevet her representerer en viktig videreutvikling av de tidligere modellene ved å inkludere både varians og korrelasjoner på individnivå. Dette gjør det mulig å fange opp mer kompleksitet i hjernens responsmønstre, som igjen kan gi bedre innsikt i hvordan forutsigbarhet påvirker språklig prosessering.
Hvordan analysere interaksjoner i 2 × 2 design ved hjelp av Stan
I statistisk analyse, spesielt i design hvor to faktorer er involvert (som et 2 × 2 design), er det avgjørende å forstå hvordan forskjellige typer interaksjoner kan påvirke resultatene på ulike skalaer. Et godt eksempel på dette kan ses i analyse av suksessprosenten i eksperimentelle oppgaver, der de spesifikke interaksjonene mellom faktorene A og B kan observeres både på logit-skalaen og sannsynlighetsskalaen. Denne forskjellen mellom skalaene kan føre til ulike tolkninger, spesielt når ikke-lineære transformasjoner benyttes. Som det er nevnt i litteraturen (Loftus, 1978; Wagenmakers et al., 2012), kan visse interaksjoner være synlige på én skala og usynlige på en annen.
Ved å bruke verktøy som brms og R kan vi lett plotte slike interaksjoner ved å bruke funksjoner som conditional_effects(), som gjør det mulig å visualisere hvordan effektene av en interaksjon endres under forskjellige betingelser. Dette gir ikke bare en visuell forståelse av hvordan to faktorer samhandler, men gir også mulighet for videre tilpasninger i analysen. For eksempel kan vi tilpasse aksen, etikettene og andre grafiske elementer for å gjøre plottet mer informativt.
En annen viktig vurdering i analysen av slike interaksjoner er hvordan kontraster er kodet i 2 × 2 design. Avhengig av koding kan faktorene enten indikere hoved- eller interaksjonseffekter, noe som kan endre tolkningen av dataene. Et viktig aspekt er at i 2 × 2 design kan kontrastene kodes på en måte som gjør det mulig å skille effektene i hvert designcelle, og dermed lettere skille hoved- og interaksjonseffekter.
I tilfeller der det er en kovariat i designet, som for eksempel i en ANCOVA-modell, kan vi kontrollere for forskjeller i denne kovariaten og samtidig vurdere hvordan de ulike regressjonshelningene (slopes) varierer mellom de forskjellige eksperimentelle betingelsene. Det gir oss en mulighet til å vurdere hvorvidt disse helningene er parallelle på tvers av betingelsene, som kan være en viktig innsikt i hvordan variablene samhandler.
I tilfeller der det benyttes generaliserte lineære modeller med ikke-lineære link-funksjoner, er det ikke bare viktig å hente ut posterierende prøver for de lineære prediktorene, men også på respons-skalene. Dette gir en dypere forståelse av hvordan modellene faktisk fungerer i den virkelige verden, og hvordan estimeringene av responsene kan variere under forskjellige forhold.
Når det gjelder mer avansert modellering, kommer Stan inn som et kraftig verktøy for probabilistisk programmering, som gir oss muligheten til å håndtere mer komplekse modeller med mange parametere. Stan bruker Hamiltonian Monte Carlo (HMC) algoritmen, som gir en mer effektiv samplingmetode sammenlignet med tradisjonelle metoder som Gibbs sampling. Den viktigste fordelen med HMC er at den tar hensyn til både de faktiske dataene og priorene våre, og sørger for at vi får nøyaktige posterierende prøver selv når parameterrommet er svært stort eller komplekst.
Stan samler prøver ved å bruke en fysisk analogi der hvert parameter sett behandles som en partikkel som beveger seg i et rom definert av den negative logaritmen av den unormaliserte posterioren. Dette betyr at høyt sannsynlige områder i parameterrommet fungerer som daler, og lavt sannsynlige områder fungerer som topper. Denne tilnærmingen gjør at vi kan samhandle med svært komplekse rom og likevel få effektive og nøyaktige prøver fra den posteriorfordelingen som best representerer våre data.
En viktig utfordring med denne metoden er geometriens påvirkning på algoritmens konvergenshastighet. Hvis parameterrommet er veldig flatt eller har flere lokale minima (multimodalitet), kan det ta lang tid for algoritmen å finne de riktige områdene av parameterrommet. For enkle modeller med få parametere er dette imidlertid vanligvis ikke et problem.
Stan gir også en utmerket løsning for simulering av data. For eksempel kan vi simulere normalfordelte data basert på en antatt sann verdi for gjennomsnittet og standardavviket. Gjennom simulering kan vi eksperimentere med forskjellige priorer og se hvordan de påvirker resultatene våre, noe som gir oss en bedre forståelse av modellens robusthet.
For de som er interessert i mer avanserte emner, kan en dypere forståelse av HMC-algoritmen og dens implementering i Stan være nyttig. Dette krever imidlertid at man har en solid bakgrunn i probabilistisk programmering og kan håndtere den tekniske kompleksiteten som følger med. Stan er et ekstremt kraftig verktøy, men det er viktig å forstå de underliggende prinsippene for å bruke det effektivt, spesielt i modeller med mange parametere eller komplekse strukturer.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский