Kunstig intelligens (AI) markerer begyndelsen på en ny æra i militær teknologi og national sikkerhed. Vi befinder os i den fjerde industrielle revolution, hvor videnskabelige gennembrud skaber omfattende forandringer i samfund, økonomi og krigsførelse. AI fungerer som drivkraften bag disse forandringer ved at muliggøre hidtil usete niveauer af automatisering, analyse og beslutningstagning, som ikke alene kan øge militær effektivitet, men også fundamentalt ændre karakteren af moderne krigsførelse.

AI’s anvendelse spænder bredt – fra automatisering af rutineopgaver til avancerede våbensystemer og strategiske operationer. Det muliggør hurtigere og mere præcise beslutninger, forbedrer militær kapacitet, og kan beskytte soldater ved at overtage farlige opgaver. Samtidig repræsenterer det en ny force multiplier, som potentielt kan øge rækkevidden, vedholdenheden og styrken i militære operationer. En central udfordring er dog, at AI-systemer skal kunne fungere robust og pålideligt under forskellige scenarier, samtidig med at de arbejder effektivt sammen med menneskelige operatører. Menneskelig overvågning og etisk ansvar er derfor uomgængelige elementer i udviklingen af militær AI.

Historisk set har AI-udviklingen været præget af svingninger, men siden 2010 er der sket en eksplosiv vækst, drevet af adgang til store datamængder, forbedringer i maskinlæring, øget computerkraft og internettets udbredelse. AI kan opdeles i tre kategorier: Narrow AI, som udfører specifikke opgaver; General AI, som kan håndtere flere opgaver; og Artificial Superintelligence, der overstiger menneskelig intelligens. I dag er det primært Narrow AI, der anvendes i militære sammenhænge, eksempelvis inden for overvågning, cyberoperationer, logistik, autonome køretøjer og kommando- og kontrolsystemer.

Den militære betydning af AI er omfattende. Den kan forbedre beslutningsprocesser, øge soldaters kognitive og fysiske præstationer, og skabe nye systemer til design og produktion af militært udstyr. AI kan også bruges til strategisk cybersikkerhed og informationskrigsførelse, hvilket kan forrykke magtbalancer på globalt plan. Det amerikanske forsvarsministeriums Nationale Forsvarsstrategi fra 2022 understreger vigtigheden af at integrere AI, kvantevidenskab, autonomi og andre avancerede teknologier for at fastholde operationel overlegenhed.

Samtidig bringer AI udfordringer, som må tackles: Evnen til at implementere AI i komplekse, dynamiske miljøer, risikoen for automatiske beslutninger uden menneskelig kontrol, og de etiske implikationer af brugen af autonome våbensystemer. Den stigende afhængighed af data og intelligente netværk kræver også reformer, der integrerer software og AI-løsninger, så information kan omsættes til hurtige og præcise operationer på slagmarken.

AI er derfor ikke blot et teknologisk redskab, men en strategisk faktor, der omformer krigsførelse og national sikkerhed på fundamentale måder. Forståelsen af disse forandringer, balancen mellem effektivitet og etik, og de strategiske konsekvenser af AI’s udbredelse, er afgørende for at navigere i den fremtidige sikkerhedspolitiske virkelighed.

Det er væsentligt at erkende, at AI ikke opererer isoleret. Dets potentiale afhænger af integrationen med menneskelige beslutningstagere, lovgivningsmæssige rammer og internationale normer. Fremtidens konflikter vil i stigende grad være præget af data, hastighed og kompleksitet, hvor evnen til at forstå og styre AI’s rolle bliver afgørende. Den teknologiske udvikling må ledsages af et klart fokus på ansvarlighed, gennemsigtighed og kontrol for at sikre, at AI styrker sikkerheden uden at kompromittere etiske principper eller global stabilitet.

Hvordan kan AI og softwarefejl føre til militære katastrofer, og hvilke implikationer har det for krigens fremtid?

Softwareudvikling i militære systemer involverer ofte flere led, hvor en ingeniør udarbejder et detaljeret design til autopiloten, som derefter oversættes til kode af en softwareudvikler. Denne ekstra kommunikationsfase er en væsentlig kilde til alvorlige fejl i software. Leveson påpeger, at de fleste alvorlige ulykker med software i de sidste tyve år skyldes fejl i kravspecifikationerne fremfor kodningsfejl. Disse fejl opstår ofte på grund af ufuldstændige eller forkerte antagelser om, hvordan systemkomponenterne eller computeren selv skal fungere.

I civile systemer kan sådanne fejl få alvorlige konsekvenser, men i det militære domæne er risikoen for utilsigtede skader endnu større. Krigsførelse er nemlig kendetegnet ved sin uforudsigelighed — tidspunkter, steder og omstændigheder for anvendelse kan ikke forudses præcist, og både modstandere og brugere er yderst variable. Denne kompleksitet og det uventede element gør militære tests og forudsigelser langt mindre pålidelige end i civile systemer. Især i våbensystemer med nukleare komponenter er sikkerhedsaspekterne særligt kritiske.

AI spiller i stigende grad en rolle inden for beskyttelse og vedligeholdelse af nukleare faciliteter, tidlig varsling, kommando- og kontrolsystemer samt våbenlevering. Mens AI kan forbedre nøjagtigheden af tidlige varsler og vedligeholdelsesprocedurer, indebærer det også betydelige risici, såsom dehumanisering af kritiske funktioner og muligheden for maskinfejl, der kan føre til fejlagtige beslutninger om gengældelsesangreb. AI kan også øge hastighed og præcision i våbenlevering, hvilket potentielt kan forrykke den strategiske balance og skabe øget usikkerhed blandt nationer. Beslutningen om at anvende nukleare våben anses dog fortsat som så alvorlig, at den bør forblive i menneskers hænder, specielt på det øverste regeringsniveau, da automatisering her kan medføre katastrofale utilsigtede optrapninger.

Misforståelser mellem menneskelige operatører og AI-systemer er hyppige og kan få alvorlige konsekvenser. AI er et forsøg på at efterligne menneskelig kognition, men kommunikationen mellem menneske og maskine lider ofte under forskelle i kontekstforståelse. Problemer med klassifikation og fortolkning kan føre til fejlagtige instruktioner og handlinger. For at imødegå dette udvikles brugerflader, der passer til krigszonens komplekse forhold, og hybrid intelligens, hvor menneskelige og maskinelle styrker kombineres, anses for lovende. Moravecs paradoks illustrerer, at computere er stærke til tunge beregninger, mens mennesker excellerer i mønstergenkendelse og fleksibel respons. Ved at udnytte dette komplement kan risikoen for fejlkommunikation og ulykker reduceres.

Der findes to hovedformer for misbrug af AI i militæret: brug af egne kapaciteter mod illegitime mål eller med uforholdsmæssig magt, samt subversion af AI-systemer af modstandere. Internationale humanitære regler gælder også for AI-våben, og AI kan både forbedre præcisionen og dermed mindske civile tab, men kan også forværre situationer ved eksempelvis at muliggøre masseovervågning og terror. Cyberangreb, der udnytter AI, har et dobbelt ansigt: de kan deaktivere militære mål uden at ødelægge infrastrukturen fysisk, hvilket gør genopbygning lettere efter konflikten, men de kan samtidig lamme kritiske civile funktioner, hvilket fører til vidtrækkende systemiske konsekvenser for civilbefolkningen. Denne sårbarhed ved den voksende afhængighed af digital infrastruktur truer den civile beskyttelse mod krigshandlinger og udvisker grænserne mellem fred og krig.

Det er vigtigt at forstå, at AI i militæret ikke blot er en teknologisk forbedring, men en kompleks og risikofyldt transformation af krigsførelsen, der kræver grundige overvejelser om etik, ansvar og kontrol. Kommunikation mellem menneske og maskine, forståelse af systemernes begrænsninger, og balancen mellem automatisering og menneskelig dømmekraft er afgørende elementer for at undgå katastrofale fejl. Samtidig skal man være opmærksom på, at det militære anvendelsesområde for AI strækker sig langt ud over våbensystemer til også at inkludere cyberoperationer og informationskrig, hvor konsekvenserne for civilsamfundet kan være enorme og langvarige.

Hvordan påvirker bias i kunstig intelligens militære trusselsvurderinger og kampoperationer?

Bias i kunstig intelligens (AI) har dybtgående konsekvenser for militære trusselsvurderinger og kampoperationer, hvor algoritmer anvendes til at identificere og håndtere potentielle fjender. Processen bag trusselsvurderinger indebærer et valg af attributter, som afgør, hvem der opfattes som en risiko, og denne udvælgelse er allerede præget af skævheder baseret på køn, alder, etnicitet og religion. I dronekrigsførelsen, som Sarah Shoker påpeger, kategoriseres mænd i den militære alder ofte som hovedmål, hvilket illustrerer hvordan sociale fordomme kan få fatale følger. Denne kategorisering sker uden tilstrækkelig hensyntagen til den enkeltes faktiske trusselsniveau og afspejler en farlig tendens til at reducere komplekse mennesker til stereotype risikoprofiler.

Brugen af store datasæt og avancerede algoritmer til at udpege trusler forstærker disse problemstillinger. Eksempelvis anvender det amerikanske militær data om personers bevægelser og aktiviteter, som hyppige rejser til lufthavne, for at klassificere individer som potentielle ekstremister. Men disse systemer er ikke fejlfri, hvilket dokumentationen af en fejlagtig vurdering af en journalist som højrisikoeksempel illustrerer. Det understreger, at store datamængder og teknologisk kompleksitet ikke nødvendigvis eliminerer fejl, men kan snarere indlejre eksisterende fordomme i automatiserede beslutningsprocesser, hvilket kan føre til fatale fejl i form af uskyldige civile ofre.

Et andet kritisk område er pålideligheden af ansigts- og genkendelsesteknologier, som bliver centrale i fremtidens autonome våbensystemer. Disse systemer lider ofte under samme slags bias som trusselsvurderingerne, især når det gælder identifikation af ikke-hvide ansigter. Erfaringer fra politiets brug af ansigtsgenkendelse viser en nøjagtighed på kun fem procent, hvilket rejser alvorlige spørgsmål om teknologiens anvendelighed i kampmiljøer, hvor fejl kan få dødelige konsekvenser. Samtidig er kulturelle forskelle i beklædning og andre visuelle indikatorer en stor udfordring for systemernes nøjagtighed, som set i Project Maven, der kæmpede med at tilpasse sig forskellige kontekster i Mellemøsten.

Derudover er det uklart, hvordan AI-systemer når deres beslutninger, hvilket kan skabe farlige situationer. For eksempel kan en algoritme fejlagtigt identificere en fjende ud fra irrelevante visuelle signaler som farven på en jetvinge, hvilket potentielt kan føre til venligbrandskader. Denne "automationsbias" får mennesker til at stole for meget på maskinens vurderinger, uden at forstå beslutningsgrundlaget, hvilket øger risikoen for fatale fejl i krig.

Endelig påvirker bias også selve designet af militære AI-systemer. Mange teknologier, inklusiv AI, udvikles med mandlige brugere som standard, hvilket kan gøre dem mindre effektive eller endda ubrugelige for kvinder. Eksempler på dette findes i arbejdsverdenen, hvor stemmegenkendelse ofte fungerer bedre på mænds stemmer, og fysiske produkter som hjelme eller kontrolinterfaces er designet til mandlige proportioner. Sådanne designskævheder i militære systemer kan få alvorlige konsekvenser for kvinder i tjeneste, både hvad angår effektivitet og sikkerhed.

Det er afgørende at forstå, at bias i AI ikke blot er tekniske fejl, men sociale og kulturelle problemstillinger, som direkte påvirker liv og død i militære operationer. Disse skævheder kan forstærke eksisterende uligheder og føre til urimelige, farlige beslutninger baseret på fejlagtige eller forudindtagede data. Det kræver en dyb indsigt i både teknologi og samfund at udvikle systemer, der kan anvendes retfærdigt og effektivt i krig.

Det er vigtigt at forstå, at bias i militær AI ikke blot er en potentiel teknologisk begrænsning, men en manifestation af dybt rodfæstede sociale konstruktioner, som kan forstærkes af automatisering. Ligeledes er der behov for større gennemsigtighed i, hvordan AI-systemer træffer beslutninger, for at undgå blind tillid til maskiner. Kulturelle forskelle og kønsdimensioner skal indgå som centrale parametre i designprocessen for at sikre, at teknologierne ikke diskriminerer eller underminerer visse grupper. Endvidere bør et kritisk blik på dataindsamling og kategorisering være konstant, for at undgå reproduktion af gamle fordomme i nye, digitale systemer.