Ansvarlig kunstig intelligens (AI) er et dynamisk og komplekst begreb, præget af tværgående perspektiver fra akademia, offentlige institutioner og teknologivirksomheder på globalt plan. I den seneste gennemgang af litteraturen og de styrende rammer på området, fremstår et konsensus om visse kerneprincipper som uundgåelige for udvikling og anvendelse af ansvarlig AI. Seks nøglekarakteristika – retfærdighed, gennemsigtighed, robusthed, ansvarlighed, sikkerhed og privatliv – er blevet identificeret på tværs af flertallet af rammeværker. Et syvende princip, bæredygtighed, er nu fremtrædende i nyere forskning og politiske dokumenter, især inden for sundhedssektoren.

De mest gennemarbejdede rammer for ansvarlig AI stammer fra internationale aktører såsom Den Europæiske Kommission, NIST i USA, og OECD, men også nationale initiativer fra lande som Australien, Japan, Saudi-Arabien og Kina spiller en central rolle. Derudover har teknologivirksomheder som Google, Microsoft, Meta, Amazon og Baidu fremsat egne politikker, om end disse ofte er ufuldstændige eller mangler systematisk konsistens. Eksempelvis henviser OpenAI til ønsket om at minimere skade og opbygge tillid, men uden at præsentere en eksplicit og systematisk struktur for ansvarlighed. Anthropic, derimod, anvender et eksperimentelt system baseret på konstitutionel AI, hvor modellen lærer gennem selvevaluering og revision – et skridt mod autonomt ansvar, men stadig uden offentliggjorte principper.

Gennemsigtighed er et gennemgående nøgleprincip i alle rammer. Dette dækker både udviklingsfasen og den praktiske anvendelse af AI-modeller, hvor åbenhed om datagrundlag, beslutningsprocesser og algoritmisk adfærd er centralt. Mange kilder kobler gennemsigtighed med forklarbarhed, dvs. evnen til at gøre AI's beslutninger forståelige og efterprøvelige. Forklarbarhed er i denne sammenhæng ikke et adskilt princip, men snarere en funktionel komponent, der understøtter gennemsigtighedens formål.

Retfærdighed dækker over princippet om lige behandling og inkluderer krav om ikke-diskrimination på baggrund af etnicitet, køn, seksualitet eller socioøkonomisk status. Flere rammer inkluderer desuden inklusion og repræsentation som en integreret del af retfærdighed – altså at modeller bør designes og evalueres med henblik på bred deltagelse og lighed i indflydelse. Nogle kilder forbinder også retfærdighed med gennemsigtighed, idet kun gennem åbenhed kan brugere og interessenter selv vurdere, om AI er retfærdigt i praksis.

Robusthed handler om modelpålidelighed og præcision i forskellige anvendelsesscenarier. Det indebærer reproducerbarhed, sporbarhed og modstandsdygtighed over for manipulation eller forstyrrelser. Kilder varierer i deres begrebsbrug, men enighed råder om nødvendigheden af teknisk stabilitet og pålidelig ydeevne.

Ansvarlighed bliver ofte nævnt i forbindelse med governance og angår, hvem der har det operationelle og juridiske ansvar for AI’s beslutninger og handlinger. Det omfatter dokumentation, audits og mekanismer til indsigelse og korrektion. I mange rammer understreges det, at ansvar skal være tilknyttet både udviklere og brugere af AI-systemer.

Privatliv er centralt, især i regulerede sektorer som sundhed. Det omfatter databeskyttelse, samtykkemekanismer og kontrol over personlige oplysninger. Mange industrikilder lægger vægt på datasikkerhed, men det varierer, hvor eksplicit de forholder sig til individets rettigheder i denne kontekst.

Sikkerhed dækker over fysisk, digital og psykologisk beskyttelse mod skade. Det inkluderer sikkerhedsarkitektur, testprotokoller og modstand mod ondsindede angreb. Der er en stigende erkendelse af, at AI’s sikkerhed ikke alene handler om teknisk infrastruktur, men også om social påvirkning og potentielle utilsigtede konsekvenser.

Det nyeste og mest komplekse princip – bæredygtighed – er endnu ikke fuldt ud implementeret i de fleste industrielle rammer, men er stærkt til stede i akademisk og statslig litteratur. Det refererer til både miljømæssige og sociale aspekter af AI, og til hvordan teknologiske beslutninger i dag former fremtidens muligheder og uligheder. AI bør derfor ikke blot være funktionel og sikker, men også langsigtet ansvarlig over for planetens ressourcer og samfundets strukturer.

På tværs af rammerne observeres forskellige grader af konkretisering og implementering. Der er et klart skel mellem idealistiske principer og praktiske retningslinjer. Mange dokumenter fremsætter overordnede værdier uden at beskrive, hvordan disse operationaliseres i udviklingsprocesser, styringsmekanismer eller evalueringsmodeller. Dette peger på nødvendigheden af at oversætte normative principper til tekniske og organisatoriske praksisser, som kan verificeres, dokumenteres og kontrolleres.

Endvidere er der en asymmetri mellem globale nord og syd i, hvem der fastsætter dagsordenen for ansvarlig AI. Mange af de definerende rammer stammer fra vestlige institutioner, hvilket rejser spørgsmål om kulturel bias og global repræsentation. Hvordan sikres det, at principper for ansvarlig AI ikke blot reflekterer én geopolitisk magtbloks værdier og interesser?

Det er også afgørende at forstå, at ansvarlig AI ikke er en statisk tilstand, men et løbende design- og læringsprincip. Det forudsætter iterative vurderinger og tilpasninger, hvor feedback fra brugere og samfundet integreres løbende. Her bliver ansvarlighed ikke kun et sæt regler, men en relationel proces mellem teknologi, menneske og institution.

Hvordan vurderes og forklares funktionernes betydning i maskinlæring for bevægelses- og faldklassificering?

I udviklingen af maskinlæringsmodeller til klassificering af bevægelsesmønstre og fald er det essentielt at forstå ikke blot modellens præcision, men også hvilke inputfunktioner der er mest afgørende for prediktionen. For at opnå denne indsigt benyttes forskellige metoder til feature importance, som hjælper med at balancere varians og bias i modellen og samtidig øger dens fortolkbarhed.

En udbredt tilgang er korrelationsbaseret feature selection, hvor funktionerne rangeres efter deres styrke i forhold til outputvariablen og samtidig søges at minimere redundans mellem funktionerne. For eksempel kan accelerometerdata vise sig mere korreleret med fald end pulsdata, hvilket betyder, at accelerometerets målinger ofte vil være mere informative i en faldprediktionsmodel.

Alternativt kan feature perturbation anvendes, hvor man systematisk ændrer en enkelt funktion og observerer modellens robusthed. Dette kan eksemplificeres ved brug af partial dependence plots, som visualiserer effekten af individuelle funktioner, mens andre holdes konstante. Lignende principper ligger til grund for kontrafaktiske forklaringer, der identificerer den mindste ændring i funktioner, der kan ændre modellens beslutning.

En mere holistisk tilgang til feature importance findes i koalitionsspilteori, hvor SHapley Additive exPlanations (SHAP) er den mest anvendte metode. SHAP tildeler hver funktion en værdi baseret på dens bidrag til en specifik forudsigelse. For eksempel kan en kombination af langsom ganghastighed og uregelmæssige gangmønstre fremstå som en stærk indikator for risiko for fald.

Regelbaserede metoder som beslutningstræer fokuserer på beslutningsprocessen snarere end på at rangordne funktioner. Her bruges fortolkelige regler, der beskriver, hvordan funktionernes værdier fører til en bestemt klassifikation, fx "Hvis accelerometerets aflæsning overstiger X og gyroskopets aflæsning er under Y, forudsiges et fald."

Modelforenkling eller distillation søger at efterligne komplekse modeller med enklere modeller uden væsentligt tab af præstation. Lokale fortolkelige modeller som LIME gør det muligt at forstå, hvordan forskellige kombinationer af funktioner bidrager til prediktionen i specifikke tilfælde, hvilket kan afsløre fx hvordan varians i accelerometerdata og gyroskopstabilitet spiller sammen i faldrisiko.

Særligt for kunstige neurale netværk anvendes attention-mekanismer, som identificerer de datasegmenter, modellen fokuserer på, når den træffer sine beslutninger. Dette kan synliggøre, at perioder med hurtig acceleration efterfulgt af pludselige opbremsninger er kritiske for at forudsige fald, hvilket øger gennemsigtigheden i ellers komplekse modeller.

Dataindsamlingen til sådanne studier omfatter ofte brug af accelerometre i smartphones eller wearable enheder, hvor både rå data og udvalgte tids- og frekvensdomænefunktioner benyttes som input til maskinlæringsmodeller. To eksempler på sådanne datasæt er UniZgFall, som indeholder triaxiale accelerometerdata fra 16 frivillige med 10 forskellige aktiviteter og faldtyper, og UniMiB SHAR, der er større og mere kompleks med 30 deltagere og 17 aktivitetsklasser.

Ved håndtering af rå data tilstræbes det at ensrette inputlængden ved hjælp af zero-padding for at sikre sammenlignelighed mellem samples. Funktionen omfatter udtræk af 94 forskellige features, halvdelen i tidsdomænet og halvdelen i frekvensdomænet, hvor beregningen af FFT (Fast Fourier Transform) er central. Funktioner som energi, gennemsnitlig resulterende acceleration og signalmagni­tudområde kvantificerer dynamikken i bevægelsen og giver intuiti

Hvordan identificeres og forstås P300-komponenten i hjernens elektriske signaler?

P300-komponenten er en markant positiv bølge, som fremkommer i den hændelsesrelaterede potentiale (ERP) omkring 300 millisekunder efter en stimulus. Den opstår særligt ved opgaver, der kræver opmærksomhed, hukommelse og beslutningstagning, og opdeles ofte i to underkomponenter: P3a og P3b. P3a aktiveres ved uventede eller sjældne stimuli, der ufrivilligt tiltrækker opmærksomhed og udløser en orienteringsreaktion. P3b er derimod forbundet med kognitiv bearbejdning af opgave-relevante stimuli og fremkommer, når man aktivt detekterer mål eller træffer beslutninger. Amplituden af P3b er typisk større ved målstimuli end ved ikke-målstimuli, hvilket afspejler en omfordeling af kognitive ressourcer til bearbejdning af relevant information.

Denne komponent har gennem omfattende forskning vist sig central for forståelsen af arbejdshukommelse, opmærksomhedsallokering og kontekstopdatering i hjernen. P300 fungerer ikke blot som biomarkør for kognitive funktioner, men benyttes også i undersøgelser af neurologiske lidelser som Alzheimers, skizofreni og ADHD. Ændringer i amplitude eller latenstid af P300 kan indikere sygdomsprogression og understøtte tidlig diagnose og personaliseret behandling. Desuden har P300 stor betydning inden for udviklingen af hjerne-computer-interface (BCI) teknologier, hvor denne komponent muliggør kommunikation og kontrol af eksterne enheder via hjernens signaler alene, hvilket er afgørende for mennesker med motoriske handicap.

Detektion af P300 i EEG-signaler er imidlertid udfordrende på grund af EEG’s iboende kompleksitet. EEG-signaler er ikke-lineære og ikke-stationære, hvilket betyder, at deres statistiske egenskaber varierer over tid. Inden for samme individ kan P300-bølger variere betydeligt fra session til session, påvirket af faktorer som træthed, opmærksomhed og mental tilstand, hvilket kræver hyppig kalibrering. Desuden er EEG udsat for artefakter som øjenblink, muskelbevægelser og elektrisk støj, som overlapper med P300-komponenten og vanskeliggør dens isolering, selv efter avanceret filtrering.

Dataindsamling foregår med flere elektroder placeret på hovedbunden, hvilket resulterer i højdimensionelle datasæt. Denne kompleksitet gør det nødvendigt at udvikle effektive metoder til datafusion og dimensionreduktion, der bevarer de væsentlige informationer, samtidig med at støj og overflødige data fjernes. Avancerede signalbehandlingsmetoder som uafhængig komponentanalyse (ICA) og hovedkomponentanalyse (PCA) anvendes til at udtrække relevante træk, og maskinlæringsmodeller, især dybe læringsnetværk som konvolutionsneuronale netværk (CNN), har vist lovende resultater i automatisk genkendelse af P300-komponenten.

En yderligere kompleksitet opstår ved stor inter-subjekt variation. Forskelle i P300’s amplitude og latenstid blandt individer er markante, påvirket af alder, køn, kognitiv tilstand og individuelle neurofysiologiske karakteristika. Derfor er modeller trænet på én persons data ofte mindre præcise, når de anvendes på andre, hvilket nødvendiggør individualiseret kalibrering for at opnå pålidelige resultater.

Det er essentielt at forstå, at P300-komponentens signaler ikke blot er isolerede hjernesvar, men integrerede manifestationer af hjernens komplekse dynamik, som afspejler den kognitive tilstand på et givet tidspunkt. Det kræver derfor en kombination af neurofysiologisk indsigt, avanceret signalbehandling og maskinlæring for at opnå både præcis detektion og meningsfuld fortolkning af P300-signalet. Udviklingen af robuste, effektive og forklarlige modeller vil ikke kun forbedre vores forståelse af menneskelig kognition, men også bane vejen for mere tilgængelige og brugbare teknologier inden for medicin og assistiv teknologi.

Endvidere bør man være opmærksom på, at det at arbejde med P300-signaler indebærer en løbende balance mellem teknisk præcision og forståelsen af den biologiske og psykologiske kontekst, hvor signalerne opstår. Således kræver arbejdet med P300 en tværfaglig tilgang, der kombinerer neurovidenskab, datalogi og klinisk viden for at kunne udnytte potentialet fuldt ud i både forskning og anvendelse.

Hvordan BCNN Overgår Andre Arkitekturer: Effektivitet og Forklarbarhed i P300 Detektion

I denne undersøgelse vurderer vi præstationen af tre forskellige arkitekturer—4-filter SepConv1D, 1-filter SepConv1D og BCNN—på Dataset1 og Dataset2. Vurderingen foretages ud fra AUC-værdier, parametertælling og saliency maps. Endvidere er der udviklet en ny metode til forklarbar AI (XAI) for bedre at evaluere og forklare BCNN’s præstation i slutningen af afsnittet.

Når det kommer til AUC-værdier på Dataset1, beregner vi krydssubjekt AUC-værdier for hver arkitektur, hvilket resulterer i 115 AUC-værdier, inklusiv gennemsnitsværdier. Som vist i Tabel 3 opnår BCNN den højeste gennemsnitlige AUC-værdi på 0,83 efter kun 2 epochers træning, hvilket overgår de andre arkitekturer. Efter 33 epochers træning forbedres BCNN yderligere til en gennemsnitlig AUC på 0,84, hvilket også overgår de andre arkitekturer. Det er bemærkelsesværdigt, at 4-filter SepConv1D-arkitekturen også kan opnå en AUC på 0,84, men kræver betydeligt flere træningsepochs (199). Dette fremhæver effektiviteten af at integrere separerbare konvolutioner, batch-normalisering og stegscheduler.

Med hensyn til antallet af parametre på Dataset1 viser vi, at 4-filter SepConv1D har det højeste parameterantal, mens 1-filter SepConv1D og BCNN udviser lignende parameterantal, hvilket demonstrerer deres kostnadseffektivitet, som vist i Tabel 4. Saliency maps for Dataset1 afslører, at BCNN udviser mindst støj før 200 ms sammenlignet med de andre arkitekturer. Alle arkitekturer viser høj saliency efter 300 ms, hvor BCNN har den højeste saliency.

Når vi ser på AUC-værdier på Dataset2, som består af otte testpersoner, fra 0 til 7, beregner vi 24 AUC-værdier for testpersonerne samt gennemsnits-AUC-værdier for hver arkitektur, hvilket i alt giver 27 AUC-værdier. Efter kun 2 epochers træning opnår 1-filter BCNN en bemærkelsesværdig AUC-værdi på 0,78, som er højere end præstationen af de fleste moderne arkitekturer. Det er også værd at bemærke, at 4-filter SepConv1D opnår 0,78, men efter et betydeligt længere træningsforløb på 183 epochers træning. Dette understreger kostnadseffektiviteten af BCNN, som viser den succesfulde integration af separerbare konvolutioner, batch-normalisering og stegscheduler.

Når vi ser på antallet af parametre for Dataset2, viser vi, at 4-filter SepConv1D kræver flere parametre sammenlignet med både 1-filter SepConv1D og BCNN. 1-filter SepConv1D og BCNN viser et lignende antal parametre, med en minimal forskel. Disse resultater opfordrer til videre udforskning af måder at reducere modelkompleksitet uden at gå på kompromis med præstationen. Teknikker som beskæring, kvantisering eller udforskning af andre former for konvolutionel effektivitet kunne undersøges for yderligere at optimere disse modeller.

Saliency maps for Dataset2 viser igen, at BCNN udviser den højeste saliency overordnet set, især omkring 300 og 700 ms. Mens saliency maps for 4-filter SepConv1D og 1-filter SepConv1D ligner hinanden, udviser 1-filter SepConv1D mere støj før 200 ms, mens 4-filter SepConv1D viser øget saliency omkring 700 ms.

For at give en mere omfattende sammenligning og forklare præstationsforskellen mellem BCNN og de andre modeller, udviklede vi en ny XAI-metode baseret på t-distributed Stochastic Neighbor Embedding (t-SNE). t-SNE er en maskinlæringsalgoritme, der bruges til dimensionalitetsreduktion. Den er særlig effektiv til visualisering af høj-dimensionelle data ved at kortlægge dem til et lavere dimensionelt rum (typisk 2 eller 3 dimensioner) på en måde, der bevarer de relative afstande mellem punkterne så meget som muligt. Dette gør den til et nyttigt værktøj til at udforske og visualisere opdateringsprocessen af de høj-dimensionelle vægte i et neuralt netværk. Hvis vi kan kigge på, hvad der skete med det neurale netværk under træningsprocessen, kan vi tydeliggøre årsagen til præstationsforskellen mellem de forskellige neurale netværksmodeller.

Som vist i figur 6, er det muligt at se, hvordan vægtene blev opdateret under træning for BCNN-modellen efter kun 2 epochers træning. Dette illustreres af både tabskurven og vægtopdateringskurven visualiseret ved hjælp af t-SNE. Resultaterne fra denne visualisering giver en værdifuld indsigt i, hvordan netværket tilpasser sig og optimerer sig under træningsforløbet. Dette giver ikke kun en dybere forståelse af netværkets opførsel, men åbner også for forbedringer af træningsstrategier, der kan føre til bedre resultater.

Det er også vigtigt at overveje, hvordan teknologier som t-SNE kan bidrage til at gøre maskinlæringsmodeller mere forklarlige og gennemsigtige. Når modeller bliver mere forståelige, bliver det lettere for forskere og ingeniører at identificere mulige forbedringer i deres design og sikre, at disse modeller kan anvendes i praktiske applikationer uden at påføre utilsigtede fejl eller bias.

Hvordan kan elektroencefalografi (EEG) bidrage til tidlig diagnose og behandling af svær depression?

Major Depressive Disorder (MDD) er en globalt udbredt psykiatrisk lidelse, som medfører høje rater af sygelighed og dødelighed. Ifølge WHO lider omkring 5% af voksne verden over af MDD, og kvinder er i højere grad ramt end mænd. MDD er blevet en ledende årsag til dårlig helbredstilstand og handicap og berører mere end 350 millioner mennesker på verdensplan. Denne lidelse medfører ikke kun en øget risiko for selvmord, men også en tæt forbindelse til forskellige kroniske fysiske sygdomme, hvilket resulterer i høj morbiditet og dødelighed. Som WHO rapporterer, dør over 700.000 mennesker hvert år som følge af selvmord, og selvmord er den fjerde hyppigste dødsårsag blandt 15-29-årige.

MDD er kendetegnet ved et vedvarende lavt humør, følelser af værdiløshed, reduceret interesse, kognitive forstyrrelser, vegetative symptomer, overdreven skyldfølelse, anhedoni (mangel på glæde), forstyrret søvn, træthed og selvmordstanker. Depression adskiller sig fra stress og angst ved dens vedvarende og gennemgribende natur, der ofte medfører betydelige funktionelle forstyrrelser i dagligdagen. Mens stress typisk er en reaktion på specifikke ydre pres, og angst handler om overdreven bekymring og frygt, er depression præget af en langvarig følelse af tristhed, håbløshed og tab af interesse eller glæde i de fleste aktiviteter.

Selvom årsagerne til MDD endnu ikke er helt klare, anses det for, at lidelsen kan udløses af en kombination af flere faktorer, herunder genetik, fysisk skade, traumer, misbrug, alvorlige opfattede tab og andre stressende begivenheder. På grund af MDD's multidimensionelle og etnologisk komplekse karakter er der et presserende behov for at udvikle og afprøve nye diagnostiske og individualiserede behandlingsmetoder. Dette skal gøres ved at undersøge neurofysiologiske og neuropsykologiske komponenter, som kan hjælpe depressive patienter.

En af de mest lovende tilgange til MDD-diagnose og -behandling involverer elektroencefalografi (EEG). EEG, som er en ikke-invasiv metode til at registrere elektrisk aktivitet i hjernen, har potentialet til at tilbyde objektive biomarkører til tidlig diagnose af MDD. EEG muliggør ikke kun tidlig opdagelse af lidelsen, men også undersøgelse af farmakologiske behandlinger og hjerne-computer-grænseflader. Desværre er fundene inden for EEG-forskning ofte inkonsistente på grund af metodologiske forskelle, patientantal og individuelle variationer.

De nuværende diagnostiske metoder til MDD er primært baseret på specialistvurdering gennem standardiserede diagnostiske interviews og psykiatriske evalueringer, der tager udgangspunkt i rapporterede symptomer og hændelser. Traditionelle psykiatriske metoder mangler objektive diagnostiske tests, og diagnosen afhænger i høj grad af selvrapportering, som bygger på patientens personlige oplevelse. Der anvendes flere selvrapporteringsværktøjer som Beck's depression inventory (BDI) og Hamilton's 17-punkts skala for depression, som begge er effektive til at identificere symptomer, men som kan føre til fejldiagnoser, afhængigt af skalaens anvendelseskontekst. Fejldiagnoser kan påvirke behandlingen og patientens tilfredshed og velvære negativt, både på kort og lang sigt. Derfor er en tidlig diagnose af MDD afgørende for en vellykket og individualiseret behandling.

Neurobiomarkører spiller en central rolle i MDD-diagnose og behandling, da de fungerer som objektive indikatorer for biologiske, patologiske eller farmakologiske processer og respons. EEG er et fremragende redskab til at studere hjernens elektriske aktivitet med høj tidsmæssig opløsning, hvilket gør det muligt at observere hjernens funktioner og ændringer fra "sund" til "syg". En af de vigtigste udviklinger inden for EEG-forskning er brugen af dybdelæringsalgoritmer som konvolutionelle neurale netværk (CNN) og lang-korttids hukommelse (LSTM), som kan hjælpe med at identificere mønstre i EEG-signaler og dermed forbedre diagnosticeringen af MDD.

EEG-signaler opnås ved at placere elektroder på hovedbunden, som registrerer den elektriske aktivitet, der produceres af pyramideceller i hjernen. Disse elektroder spiller en vigtig rolle i signalindhentning og giver forskerne mulighed for at undersøge hjernens funktion og aktivitet. Den høje tidsmæssige opløsning af EEG gør det muligt at studere hjernens dynamik under forskellige tilstande som hvile, åbne eller lukkede øjne, samt under specifikke opgaver. Der er voksende evidens for, at neuropsykiatriske lidelser som MDD er tæt forbundet med abnormale topologiske ændringer i hjernens netværk. For eksempel har studier vist, at atrofi i områder som amygdala og hippocampus kan udvide sig til andre områder i hjernen hos MDD-patienter.

At identificere disse abnormiteter tidligt gennem EEG kan hjælpe med at udvikle individualiserede behandlingsplaner, der ikke blot er baseret på farmakologiske interventioner, men også på psykologisk behandling og bioteknologiske teknikker. Et mål med den igangværende forskning er at finde mere præcise og objektive metoder til at diagnosticere og behandle MDD, hvilket kan forbedre patienternes livskvalitet og helbred.

Det er også væsentligt at bemærke, at den vedvarende forskning i EEG og neurobiomarkører har potentialet til at revolutionere den måde, vi forstår og behandler MDD på. Fremtidens behandlinger vil ikke blot være reaktive, men også proaktive, baseret på data, der konstant opdateres, og som kan give en mere præcis indsigt i en patients individuelle neurologiske tilstand.