I EEG-analyse, især når der anvendes dyb læring til at klassificere eller forudsige kliniske tilstande, er valget af modelarkitektur og behandlingen af dataer afgørende for ydeevnen. I vores undersøgelse blev flere eksperimenter udført for at forstå, hvordan forskellige vindueslængder og vinduesstakning påvirker nøjagtigheden af de to-trins EEG-analysemodeller.
For at kunne evaluere ydeevnen af de anvendte modeller blev der først arbejdet med TUAB-datasættet. Dette datasæt har allerede fået tildelt et mærkat, og de oprindelige test- og træningssplitter blev bevaret for at sikre validiteten af eksperimenterne. Det er essentielt, at vi benytter de samme præ-behandlingsmetoder som i tidligere forskning for at sikre sammenlignelighed af resultaterne, herunder metoderne præsenteret af Schirrmeister et al. for Deep4-arkitekturen og derefter anvendt til TCN og Fusion Alexnet.
For den første modelfase eksperimenterede vi med både Temporal Convolutional Network (TCN) og Deep4 arkitekturerne. Begge modeller er sammensat af blokke med konvolutions- og pooling-lag. Mens TCN skiller sig ud ved at erstatte standard konvolution med dilateret konvolution og introducere en residualstruktur, tilbyder Deep4 en mere konventionel tilgang. TCN og Deep4 viste sig at være fremragende valg for første fase, og vi valgte at anvende de samme hyperparametre som i tidligere studier for at opnå baseline-ydelse. For at undersøge, om vores metoder kunne anvendes på andre typer af arkitekturer, implementerede vi også Vision Transformer (ViT) som en alternativ første-fase-model. Dog fokuserede flertallet af eksperimenterne på Deep4 for enkelhedens skyld.
Når vi gik videre til den anden modelfase, som beskæftiger sig med "arbitration" (kombinering af klassifikationsresultater fra de forskellige vinduer til én samlet klassifikation for en EEG-session), viste vi, at de fleste tidligere studier ikke har diskuteret arbitrationsmetoder i dybden. Selvom det er umuligt at undgå arbitration i situationer, hvor modeller trænes på vinduer og evalueres per optagelse, blev det opdaget, at metoden anvendt i Deep4, nemlig den såkaldte 'Mean'-metode, fungerer som en nyttig baseline. Der blev dog også eksperimenteret med alternative metoder som Multi-Layer Perceptron (MLP) og XGBoost, og forskellige dataforbehandlingsteknikker blev afprøvet, herunder "Raw", "Histogram" og "Hybrid" metoder. I denne sammenhæng blev vinduesstakning og forskellige strategier for databehandling evalueret for at skabe et robust og effektivt arbitratormodel.
Et vigtigt aspekt, der adskiller denne undersøgelse fra tidligere arbejder, er inkluderingen af funktioner fra mellemste lag i første-fase-modellerne som input til arbitration-modellen i anden fase. Denne tilgang kunne potentielt give yderligere forbedringer i modelydelsen ved at udnytte informationer, der ikke kun stammer fra de endelige outputs af første-fase-modellen.
Når det kommer til de opnåede resultater, viser det sig, at de foreslåede metoder til vinduesstakning outperformer baseline-metoderne – både når det gælder en-fase- og to-fase-modeller. Den højeste gennemsnitlige nøjagtighed for hele to-fase-modellen nåede 93,3 %, mens den højeste nøjagtighed for en enkelt instans af første-fase-modellen var 96,2 %, begge opnået ved anvendelse af den "Hybrid"-metode med en vindueslængde på 600 sekunder. Den gennemsnitlige præstation steg yderligere, når TCN anvendtes i første fase og XGBoost i anden fase, hvilket resulterede i en nøjagtighed på 99,0 %. Dette afslører den høje effektivitet af metoden, især i forhold til den relativt lave beregningsomkostning for træning af modellen.
Det er også vigtigt at bemærke, hvordan vindueslængden påvirker modelydelsen. Resultaterne viser, at både én-fase-modellen uden arbitration og de to-fase-tilgange forbedres, når vindueslængden øges, selvom forbedringen ikke er helt monotonisk. Alle modeller præsterede dårligst ved 60 sekunder og bedst ved 600 sekunder. Dette indikerer, at længere vinduer kan være mere informative og give modellen mulighed for at fange længere tidsmæssige afhængigheder i EEG-signalerne, hvilket resulterer i bedre præcision og følsomhed.
En yderligere dimension af vores forskning vedrører, hvordan man håndterer dataskræmming i EEG-analyse. Tidligere har vi diskuteret vindueslængde og vinduesstakning som metoder til at afhjælpe skævheder i dataene forårsaget af vinduessplitning, men det er vigtigt at forstå, at vinduessplitning oprindeligt blev introduceret som en strategi til at tackle udfordringen ved kortere signaler og sikre, at modeller kunne trænes på repræsentative datasæt. Udfordringen ligger i at finde balancen mellem modelens kompleksitet og den nødvendige datamængde for at opnå pålidelige resultater, især når man arbejder med kliniske EEG-data.
Hvordan kan man udnytte ulabelerede EEG-data til forbedring af maskinlæring i klinisk EEG-analyse?
En af de største udfordringer inden for maskinlæring i EEG-analyse er manglen på tilstrækkelige mængder af korrekt labelerede data. På den anden side er der et væld af ulabelerede EEG-data til rådighed, som giver en unik mulighed for at anvende usuperviseret eller selv-superviseret læring. Et lovende skridt frem er brugen af kontrastiv læring, hvor man betragter forskellige kanaler fra den samme EEG-optagelse, eller to vinduer fra den samme optagelse, som et positivt par. Motsat kan kanaler eller vinduer fra forskellige EEG-optagelser betragtes som negative par. Denne tilgang gør det muligt for modellen at lære meningsfulde repræsentationer af dataene uden at skulle anvende eksplicitte etiketter. Dermed kan de enorme mængder ulabelerede data, som findes i EEG-feltet, udnyttes effektivt.
En vigtig drivkraft for succes i EEG-analyse er størrelsen på de anvendte modeller. Større modeller indikerer en evne til at lære mere komplekse sammenhænge mellem input og output, hvilket er nødvendigt for at kunne analysere EEG-data effektivt, da disse data typisk har et stort inputstørrelse og et lavt signal-til-støj-forhold. Overgangen fra rå EEG-data til de mål, man ønsker at forudsige eller klassificere, er ofte kompleks på grund af datanaturens iboende egenskaber. Derfor er det nødvendigt at anvende større modeller, især når mængden af tilgængelige data vokser og EEG-databaserne bliver mere omfattende og robuste. Der er dog også en risiko for, at større modeller kan føre til overfitting. Det er derfor afgørende at finde en balance mellem modelkompleksitet og de nødvendige beregningsressourcer. Den reelle effektivitet af større modeller i EEG-analyse afhænger af, om den øgede kompleksitet faktisk bidrager til en forbedring af modelens præstationer i praktiske, kliniske scenarier.
Multimodal læring repræsenterer en anden lovende tilgang til at forbedre EEG-analyse. Mens EEG-data indeholder en stor mængde information, er de ofte abstrakte og kan mangle kontekst, som f.eks. spatial opløsning og relevante baggrundsoplysninger. For at løse disse udfordringer kan multimodal læring anvendes, hvor data fra andre modaliteter, som MRI eller fMRI, inddrages. Et effektivt eksempel på multimodal læring kunne være at kombinere EEG-signaler med patientens kliniske historie (tekstrapporter). Faktorer som patientens alder og medicinske historie spiller en stor rolle i kliniske diagnoser. For eksempel vil en langsommere baggrundsrytme i EEG-signaler ofte blive betragtet som en normal aldersrelateret ændring hos ældre, mens samme langsomme bølgeaktivitet kan betragtes som unormal hos yngre personer. I multimodal læring forsøger man at udtrække funktioner fra både EEG-signalerne og de tilsvarende tekstrapporter, derefter kortlægge disse funktioner til et fælles rum og concatenere dem til input i en classifier. Dette gør det muligt at udnytte styrkerne fra begge datamodaliteter og giver en mere omfattende forståelse af patientens tilstand, hvilket kan føre til mere præcise og nuancerede diagnostiske resultater.
Selvom maskinlæringsmodeller i EEG-klinik har vist sig at kunne nå præstationer, der kunne retfærdiggøre klinisk anvendelse, er det vigtigt at bemærke, at den virkelige verdens præstationer muligvis ikke vil være de samme som dem, der opnås i akademiske eksperimenter, hvor de anvendte datasæt ofte kun repræsenterer et begrænset udsnit af globale kliniske forhold. Desuden er klassifikationen af normal/abnormal kun den enkleste opgave. Subkategorisering af abnormiteter er også vigtig, og her har menneskelig ekspertvurdering også demonstreret menneskelig præstation. Yderligere udvikling af værktøjer til forklarbarhed vil være vigtig for at etablere tillid og gøre AI mere anvendelig i kliniske EEG-arbejdsprocesser. Selvom der ikke nødvendigvis er en hård præstationsgrænse under 100%, viser nyere forskning, at maskinlæring kan overgå menneskelige eksperter, især når det drejer sig om vurderinger, der er konsensusbaserede. Det betyder, at man ikke nødvendigvis skal indstille sig på et præstationsloft, men derimod bør arbejde mod fortsat forbedring af både modeller og datasæt, samt udvikling af nye metoder til evaluering og implementering i klinisk praksis.
For at fortsætte med at forbedre EEG-diagnostik ved hjælp af maskinlæring er det nødvendigt at kombinere forbedringer i de tilgængelige datasæt med nye, mere effektive algoritmer og modeller. Samtidig bør kliniske behov fortsat være drivkraften for udviklingen af AI-baserede EEG-arbejdsgange og sikre, at teknologierne bliver anvendt i de rette sammenhænge og i overensstemmelse med klinisk praksis.
Hvordan kan avanceret EEG-forbehandling og konvolutionelle neurale netværk forbedre diagnosticering af mentale lidelser?
Den øgede opløsning og præcision i EEG-optagelser muliggør en detaljeret identifikation af specifikke hjerneområder, som er ansvarlige for forskellige funktioner. Denne nøjagtighed er afgørende for at forstå komplekse neurale processer og sygdomme, hvilket igen baner vejen for mere præcise diagnoser og målrettede behandlinger. Ved at lokalisere de eksakte områder med hjerneaktivitet får forskere mulighed for dybere indsigt i, hvordan forskellige hjerneområder bidrager til kognitive og adfærdsmæssige processer, hvilket styrker både den videnskabelige forståelse og klinisk praksis.
Forbehandlingen af EEG-data er et kritisk skridt, hvor rådata hentes i CSV-format via Amazon AWS og indlæses med MNE-biblioteket med standardmontagen “GSN-HydroCel-128”. Herfra fjernes de yderste kanaler, og data kopieres til en pipeline, der anvender Pyprep til reference og re-reference med “EEG” som kanaltype. En notch-filter på 60 Hz anvendes for at fjerne netstøj, og Ransac kører flere gange for at identificere dårlige kanaler, som markeres i datasættet. Datasættet bliver derefter resamplet til 256 Hz og filtreret med et båndpasfilter mellem 1 og 70 Hz, samtidig med at dårlige kanaler interpoleres og data re-refereres baseret på gennemsnittet af kanaler.
Et væsentligt trin i forbehandlingen er anvendelsen af ICA (uafhængig komponentanalyse), som hjælper med at isolere og annotere artefakter såsom muskelbevægelser, hjerteaktivitet (EKG), øjenbevægelser (EOG) samt teknisk eller miljømæssigt støj, som kan forvride det ægte EEG-signal. Ved at benytte PCA før ICA reduceres datadimensionerne for at effektivisere beregningerne, og dårlige artefakter fjernes, hvilket øger signal-til-støj-forholdet og dermed datakvaliteten. Denne proces muliggør en mere pålidelig analyse og øger sandsynligheden for korrekte diagnoser.
Efter forbehandling filtreres data yderligere for at isolere bestemte frekvensbånd (delta, theta, alpha, beta og gamma), som repræsenterer forskellige hjerneaktiviteter. Data transformeres til et fast format (108 × 350) ved brug af bilineær interpolation i TensorFlow, og segmenteres i tidsvinduer på ca. 15,6 sekunder. Disse segmenter omformes til tredimensionelle RGB-billeder, hvor hver farvekanal er en kopi af det samme forbehandlede datasæt, hvilket muliggør anvendelsen af konvolutionelle neurale netværk (CNN).
To CNN-arkitekturer blev benyttet: VGG16, kendt for sin evne til billedklassifikation via dybe lag, og DeprNet, en specialiseret model sammensat af fem blokke med konvolutions-, batch-normaliserings- og max-pooling-lag efterfulgt af tætte lag. VGG16-modellen anvender globale pooling- og fuldt forbundne lag med ReLU-aktivering og sigmoid-aktivering i beslutningslaget, mens DeprNet anvender LeakyReLU for flertallet af lagene og sigmoid i det afsluttende lag. Dette muliggør robust klassifikation med høj præcision i diagnosticeringen af depression hos børn baseret på EEG-data.
Til træning blev AdaBelief-optimering valgt, en metode der kombinerer fordelene ved adaptive optimeringsmetoder som Adam og robustheden af stokastisk gradientnedstigning. Denne optimeringsmetode sikrer hurtig konvergens samtidig med, at generaliseringsevnen forbedres. Modellerne blev evalueret med binær krydsentropi som tabfunktion og metrics som nøjagtighed, Cohen’s Kappa, Matthews korrelationskoefficient, F1-score, præcision, sensitivitet og specificitet, hvilket giver et omfattende billede af modelpræstationen.
Træningsprocessen udfordrede den begrænsede datamængde, som blev håndteret ved segmentering af datasættet og anvendelse af dataaugmentation og klassvægtning for at imødegå ubalance mellem MDD- og HBN-klasser. Denne tilgang sikrer, at modellerne lærer generelle mønstre frem for at overtilpasse sig dominante klasser, hvilket forbedrer deres anvendelighed i virkelige kliniske situationer.
Det er vigtigt at forstå, at nøjagtigheden af EEG-baserede diagnoser i høj grad afhænger af den grundige og metodiske forbehandling af rådata. Artefaktfjernelse og korrekt filtrering sikrer, at de neurale signaler, som modellerne trænes på, afspejler reelle biologiske processer frem for støj. Derudover illustrerer valget af optimeringsmetode og arkitektur, hvordan avanceret maskinlæring kan tilpasses til komplekse medicinske data for at fremme præcis og pålidelig sygdomsdetektion. For at opnå optimale resultater bør læseren også være opmærksom på vigtigheden af dataets kvalitet og diversitet samt på, hvordan balancering af datasæt og korrekt valg af evalueringsmetrikker bidrager til generaliserbare og klinisk relevante modeller.
Hvordan kan dyb læring og EEG-frekvensbånd afsløre symptomer på svær depressiv lidelse hos børn?
Analyser baseret på konvolutionsneuronale netværk (CNN) anvendt på hviletilstands-EEG har vist lovende resultater i diagnosticeringen af svær depressiv lidelse (MDD) hos børn og unge. Resultaterne understøtter tidligere fund, der peger på en signifikant sammenhæng mellem visse EEG-frekvensbånd og depressive symptomer. Specifikt fremhæver analyserne theta, delta, alpha og gamma frekvensbånd som bærende neurofysiologiske biomarkører, mens beta-båndet konsekvent fremstår som mindre informativt i denne kontekst.
To modeller, VGG16 og DeprNet, anvendt til klassifikation, opnår høje F1-scores især i theta-frekvensbåndet (henholdsvis 0,870 og 0,743), hvilket indikerer, at dette bånd indeholder de mest distinkte og tydelige karakteristika, der adskiller børn med MDD fra raske kontrolgrupper. Delta- og alpha-båndene følger efter med relativt høje scores, hvilket antyder, at disse frekvenser også rummer væsentlige informationer om sygdomstilstanden.
En interessant observation er den markante forskel i ydeevne mellem de to modeller i gamma-båndet, hvor VGG16 opnår en bemærkelsesværdig høj F1-score (0,848) sammen med stærke CK- og MCC-værdier, mens DeprNet præsterer væsentligt svagere. Denne uoverensstemmelse peger på, at modelarkitektur og træningsmetoder kan påvirke evnen til at udnytte bestemte frekvensbånds informationer, især de mere komplekse som gamma.
Modellerne udviser generelt høj specifitet, men sensitiviteten falder ofte markant, især i tilfælde med ubalance i datasættet, hvilket fører til en tendens til at favorisere raske kontrolsubjekter fremfor MDD-patienter. Denne skævhed fremgår tydeligt i heatmaps, hvor følsomheden falder mere end specificiteten, især i bestemte hjerneregioner.
Region-of-interest (ROI)-analyser afslører, at mens beta-båndet har en minimal rolle, opnår VGG16 en bedre forståelse af statistisk vigtige hjerneregioner på tværs af frekvensbånd sammenlignet med DeprNet. For delta og theta-frekvenser er der observeret signifikant aktivitet i venstre temporale, venstre occipitale, centrale og bilaterale frontale områder, hvilket korresponderer med eksisterende neurobiologisk viden om depression hos børn. Alpha- og gamma-båndene viser statistisk signifikans i næsten alle undersøgte regioner.
Area under the curve (AUC) for begge modeller ligger konsekvent over 0,9 i de mest informative frekvensbånd, hvilket indikerer fremragende diskrimineringsevne. Beta-båndet fremstår igen som undtagelsen med lavere ydeevne og bør derfor vurderes med forsigtighed i fremtidige kliniske applikationer.
De statistiske resultater understreger, at hvile-EEG og dyb læring tilsammen tilbyder en robust, datadrevet tilgang til diagnosticering af MDD hos børn, hvor frekvensspecifikke mønstre og regionale hjerneaktiviteter spiller en afgørende rolle. Det er vigtigt at forstå, at sådanne maskinlæringsmodeller i høj grad afhænger af datakvalitet, balancerede datasæt og korrekt validering for at sikre klinisk relevans og generaliserbarhed.
Desuden bør læseren være opmærksom på, at mens specifikke frekvensbånd og hjerneområder kan give indsigt i neurofysiologiske mekanismer bag MDD, kan individuelle variationer og komorbiditeter påvirke resultaterne. Fortolkning af EEG-biomarkører må derfor ske i en multidisciplinær kon
Hvordan analyse af varians (ANOVA) kan anvendes i eksperimentelle data
Er Margaret blevet betragtet som en simpel sygdom, eller er der noget dybere på spil?
Hvordan bliver vilde duer til tamme og hvad betyder det for deres natur?
Hvordan defineres ansvarlig kunstig intelligens i en global kontekst?
Hvad er grunden til det, vi kalder "post-sandhedspolitik" i nutidens samfund?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский