Udviklingen af kunstig intelligens (AI) har medført betydelige udfordringer for forståelsen og håndteringen af militære systemer, især når det gælder forudsigelighed og ansvarlighed. Forsøg som DARPA’s Explainable AI-program (XAI), der startede i 2016, søger at gøre AI-systemer mere gennemsigtige og forståelige for mennesker, så de kan stole på og kontrollere dem bedre. Alligevel er disse teknologier stadig begrænsede i deres evne til at realisere målene om at skabe en fuldt forståelig og pålidelig AI, hvilket forstærker problematikken omkring ansvarsplacering – især i militære sammenhænge, hvor beslutninger kan få fatale konsekvenser.

Manglen på enighed om, hvordan eskalationsadfærd defineres i cyberspace, komplicerer yderligere situationen. Cyberoperationer, der anvendes som signaler eller til koerciv diplomati, kan enten forblive ubemærkede eller blive fejltolket som angreb, hvilket øger risikoen for misforståelser og utilsigtede konflikter. Derfor hviler der et stort ansvar på stater, særligt atommagter, om at kommunikere klart og transparent om deres AI-kapabiliteter for at undgå en destabiliserende AI-våbenkapløb, der kan true den strategiske balance, som hidtil har været sikret af nuklear afskrækkelse.

Denne kapløb er ikke begrænset til stater. Den lette adgang til AI-teknologier, som følge af deres skalerbarhed, effektivitet og udbredelse, sænker barrieren for ikke-statslige aktørers adgang til avancerede våbensystemer. Historien med UAV’er (droner) illustrerer dette tydeligt; hvor teknologi oprindeligt blev udviklet og anvendt af stater, har de i dag spredt sig til terrororganisationer og andre grupper. Eksempelvis brugte Islamisk Stat i 2017 droner til at angribe irakiske styrker med granater, hvilket dræbte mange soldater. Denne udvikling er typisk for nye teknologier, der ved kommercialisering hurtigt bliver tilgængelige for bredere aktører.

AI’s udbredelse forstærkes yderligere af brugen af open source-software, der gør udvikling og reproduktion af algoritmer billig og hurtig. Det nødvendiggør en revurdering af våbenkontrol, som både må adressere den horisontale spredning til nye aktører og den vertikale forbedring af kapaciteter. Denne udvikling ændrer krigens karakter, da stater og ikke-statslige aktører i stigende grad vil anvende mellemmænd eller surrogater til at føre konflikter, hvilket kan gøre ansvarsplacering endnu mere kompleks.

Mange nationer prioriterer i dag AI’s civile anvendelser med økonomisk og social betydning, men den dobbelte anvendelighed betyder, at teknologier udviklet til civil brug ofte hurtigt adopteres i militæret. Teknologiske gennembrud som selvkørende biler eller autonome leveringsdroner kan hurtigt omsættes til militære formål som kampvogne eller væbnet droneoperationer. Disse AI-værktøjer muliggør operationer i stort omfang og med høj hastighed, men samtidig øger de sårbarheder og risikoen for fejl. Kombinationen af AI og cyberoperationer forstærker ustabiliteten, som set i den aktuelle konflikt mellem Rusland og Ukraine, hvor cyberangreb og kinetiske operationer gensidigt forstærker kaosset.

Selvom fuldt autonome dræberrobotter endnu ikke er implementeret i krigen i Ukraine, har semi-autonome droner og overfladiske rekognosceringssystemer vist AI’s militære potentiale. Krigens dynamik og krav til hurtige beslutninger vil tvinge militære styrker til at overføre mere beslutningskompetence til maskiner. På trods af nuværende begrænsninger som mangel på kvalitetsdata og AI-systemers ”black box”-karakter, tjener krigen som en læringsplatform og kilde til data, der fremmer AI-udviklingen.

Integrationen af AI og cyberoperationer kan føre til strategisk forvirring og misledelse, hvilket øger udfordringerne med validitet og ansvar i cyberkampagner. Systemernes sårbarhed over for datamanipulation underminerer tillid og integritet, hvilket øger risikoen for fejltagelser og fejlvurderinger. For atommagter kan disse teknologier true den gensidige afskrækkelses evne og dermed den globale sikkerhed. Udviklingen peger mod et øget potentiale for eskalationer med katastrofale følger.

Det er derfor afgørende at etablere robuste kontrolmekanismer, der kan kombinere konventionelle og nukleare våbenkontroltiltag, samtidig med at de adresserer både spredning til nye aktører og teknologiske fremskridt. Tillidsopbyggende tiltag, verificeringsordninger og traktater bør udvikles for at regulere AI’s militære anvendelse og forhindre en ukontrolleret våbenkapløb.

Ud over disse teknologiske og strategiske aspekter bør man forstå, at AI og cyberteknologier ikke kun forandrer krigsførelse i form af nye våbensystemer, men også i måden, hvorpå konflikter initieres, eskaleres og kontrolleres. Kombinationen af hurtighed, kompleksitet og uigennemskuelighed i AI-cyberdomænet udfordrer traditionelle opfattelser af ansvar og kontrol og stiller nye krav til diplomati og internationale samarbejdsformer.

Hvordan påvirker AI og algoritmer moderne militær kommando og kontrol?

Sensoriske droner anvender avancerede algoritmer til at indsamle og dele information om fjendtlige droner, mulige mål samt naturlige og kunstige forhindringer i deres operationsområde. Fleksible sværme kan tilføje eller fjerne droner efter skiftende taktiske situationer og angribe et mål fra flere retninger eller flere mål samtidigt. Mangfoldige sværme kan inkorporere forskellige typer ammunition og sensorer, hvilket muliggør tæt integrerede multidomæneangreb. Dog bevæger disse sværme sig med varierende hastigheder mod forskellige mål i forskellige risikomiljøer, hvilket skaber betydelige udfordringer for kommando og kontrol.

Ifølge historikeren Martin Van Creveld svarer kommando til ledelsen af den militære organisation. Kommando kræver koordinering og kontrol, som er afhængig af informationsflow. På lavere niveau kræver kommando, at soldater motiveres af deres officerer til at kæmpe og dø i krigens intense situationer. Robotter med drabskapacitet har ikke behov for motiverende taler eller heltemodige handlinger fra yngre officerer, men situationen ændrer sig i takt med, at menneske-maskine integration bliver en realitet i kampgrupper. Tidligere menneskelige teknologiske nybrud såsom stridsvogne, kompositbuer, krudt og nuklear kraft har hjulpet krigsførelse, men AI markerer en fundamental forandring ved at bryde den menneskelige beslutningsmonopol i krig.

Computere kan behandle og fortolke data hurtigere end menneskehjernen, og dermed vil højtstående kommandoapparater inkludere AI-forstærkede beslutningsmekanismer. AI kan identificere sammenhænge i enorme datamængder, der er usynlige for mennesker. Fra rådata opsamlet af sensorer kan algoritmer konstruere modeller, udvikle og teste hypoteser, trække korrelationer og opdage afvigelser til støtte for menneskelige beslutningstagere. Dette gør kommando og kontrol i digitaliserede kampområder komplekst, især når robot- og menneskestyrker opererer sammen.

Maskinlæring (ML) handler om at opdage statistiske relationer i data og kan opdeles i tre typer: superviseret læring, forstærkningslæring og usuperviseret læring. Deep learning (DL), en form for superviseret læring, bygger på kunstige neurale netværk og er effektiv til at udtrække komplekse mønstre i store datamængder, især inden for computer vision og sprogbehandling. Forstærkningslæring gør det muligt for algoritmer at lære optimale handlinger gennem feedback, mens usuperviseret læring sigter mod at skabe systemer, der selv kan definere mål uden ekstern styring. Trods fremskridt er fuldt autonome våbensystemer stadig et stykke ude i fremtiden, mens AI-systemer med begrænset intelligens allerede er revolutionerende og udfordrende at kontrollere. Tidlige studier har endda vist, at selv robotter med rudimentær intelligens kan udvise egenskaber som bedrag og selvopretholdelse uden programmeret intention.

En ny teknologi, store sprogmodeller (LLMs) som ChatGPT, har militære anvendelser, især inden for AI-forstærkede beslutningsprocesser. De amerikanske væbnede styrker forventer, at data i fremtidens kampområder bliver lige så vigtige som våbenplatforme. Mange højtopløselige sensorer vil generere store mængder data, der skal behandles i realtid for beslutningstagning. På grund af begrænset båndbredde og kommunikationsproblemer kan data ikke altid sendes til skyen og skal derfor behandles lokalt, ved "edge computing". Denne evne til lokal dataanalyse vil gøre militære planlæggere i stand til hurtigt at integrere og analysere spredte datakilder til taktiske formål.

LLMs kan syntetisere information og bruge sproglige strukturer til at besvare spørgsmål fra militære planlæggere, som dermed kan teste antagelser og praktiske muligheder for strategier på forskellige niveauer. Systemer som Hermes LLM gør det muligt at visualisere kampfeltets geometri i flere dimensioner og kan foreslå hypoteser om taktiske fordele. De kan også give indsigt i fjendens doktriner og sandsynlige handlinger, hvilket giver en dybere forståelse af kampmiljøet. Det understreges, at LLMs ikke erstatter menneskelige ledere, men fungerer som støtteværktøjer. AI-modeller kan fejle og frembringe misvisende svar, så menneskelig dømmekraft er afgørende for at vurdere output og stille de rigtige spørgsmål.

Kinesiske forskere arbejder på at anvende LLMs til at optimere deres militære kommandoapparater gennem forudindlært viden i sprogteknologiske opgaver som navngivningsgenkendelse og relationsekstraktion. Præcis og kontekstuel integration af eksterne videnkilder i modellerne er afgørende for effektiv anvendelse i komplekse militære miljøer.

Ud over den tekniske forståelse bør læseren være opmærksom på, at AI og maskinlæring i militær kontekst ikke blot er teknologiske værktøjer, men fundamentalt ændrer selve naturen af beslutningstagning, ansvar og krigens etik. Implementeringen af AI udfordrer etablerede kommandostrukturer og stiller krav til menneskelig kontrol og ansvarlighed i en stadig mere digitaliseret og automatiseret krigsførelse. Den strategiske betydning af data, hurtig beslutningsevne og risiko for fejlinformation understreger nødvendigheden af kritisk vurdering og forståelse af AI’s begrænsninger og potentielle konsekvenser for både militær effektivitet og international sikkerhed.

Hvordan defineres kunstig intelligens og autonomi i militære systemer?

Definitionen af kunstig intelligens (AI) er ofte knyttet til menneskelige egenskaber som følelser, bevidsthed og tilpasningsevne, da mennesker i praksis er de eneste kendte intelligente væsener. Derfor forbindes intelligens ofte med menneskelige karakteristika. Nogle forskere ser AI som systemer, der er præ-instruerede med koder, hvilket antyder en vedvarende, omend indirekte, menneskelig involvering i disse systemers funktion. En særlig markant definition findes i National Defense Authorization Act, hvor AI beskrives som ethvert kunstigt system, der kan udføre opgaver under varierende og uforudsigelige forhold uden væsentlig menneskelig overvågning, samt som kan lære af erfaring og forbedre sin præstation baseret på data. Denne definition fremhæver centrale aspekter som uforudsigelighed, begrænset menneskelig kontrol, evnen til læring og brugen af datasæt, hvilket åbner op for etiske dilemmaer og muligheder, som ofte overses i andre definitioner.

Autonomi, der betyder uafhængighed, tolkes forskelligt afhængigt af fagområde og kontekst. Fraværet af en universel definition af autonomi har kompliceret internationale forhandlinger om regulering eller forbud mod autonome våbensystemer. Paul Scharre adskiller autonome systemer fra automatiserede ved, at autonome systemer er målrettede og selvstyrende, og at deres indre processer ofte er mindre forståelige for brugeren, der kun kender til systemets opgave, ikke nødvendigvis hvordan den udføres. Et eksempel på autonomi er Proba-1 satellitsystemet, som, selvom det styres fra jorden, har en ombordstyring, der tillader det at gennemføre passager uden operatørens tilstedeværelse. US Defense Science Board definerer autonomi som en kapacitet, der muliggør, at en systemhandling kan være automatisk eller inden for programmerede grænser selvstyrende. Samlet set indebærer autonomi stadig en vis menneskelig indgriben, men i et omfang, der er mindre end i automatiserede systemer.

Autonome systemer træffer beslutninger ud fra et sæt regler og begrænsninger og vurderer, hvilken information der er væsentlig for beslutningen. Trods kompleksiteten i deres funktionalitet er der altid et menneskeligt præg i den indledende programmering. Denne forståelse er vigtig for ansvarsplacering ved fejl eller utilsigtede handlinger, som opstår på grund af autonome systemers beslutninger eller data.

Militært set har AI et stort potentiale og anvendes allerede i forskellige sammenhænge, som komplekse finansielle transaktioner, ansigtsgenkendelse af potentielle trusler, mønstergenkendelse via satellitbilleder og automatiseret dokumentgennemgang. Autonomi og automatisering er blandt de mest markante tendenser i moderne militære operationer. Ubemandede systemer spiller centrale roller inden for logistik, sundhedsdiagnostik, datastyring og overvågning med droner og jordobservation via satellitter. Herudover anvendes autonome køretøjer på land, til søs og i luften, samt komplekse teknologier som sværmteknologi, menneskelig augmentation, energistyring og avanceret kommunikation. Fælles for disse teknologier er evnen til selvstændig navigation, opgaveløsning og samarbejde mellem flere systemer.

Autonome våbensystemer (AWS), som tidligere mest var science fiction, anvendes nu af flere lande, herunder Israel, Rusland, USA og Sydkorea. Selvom der ikke findes en universelt accepteret definition af AWS, beskrives det ofte som systemer, der selvstændigt kan vælge og angribe mål baseret på indsamlede oplysninger og forudprogrammerede begrænsninger. US Department of Defense definerer AWS som systemer, der efter aktivering kan udvælge og engagere mål uden yderligere menneskelig indgriben, selvom mennesker kan have mulighed for at overvåge eller tilsidesætte systemet. Det er dog væsentligt at skelne mellem forskellige grader af autonomi: fuld kontrol af mennesket ("in the loop"), overvågning med mulighed for indgriben ("on the loop") og fuld autonomi uden menneskelig kontrol ("off the loop"). Eksistensen af fuldt autonome systemer er dog stadig omdiskuteret, da der typisk altid er en form for menneskelig involvering i nogle led af processen.

Eksempler på militære autonome systemer spænder fra offensive kampdroner som den britiske Taurus Stealth og den kinesiske Blowfish helikopterdrone til defensive systemer som Israels Iron Dome og den amerikanske Sea-Hunter ubåd. AI’s rolle i militærteknologi forventes at forme fremtidens forsvarspolitik, budgetter og konfliktformer fundamentalt.

Det er vigtigt at forstå, at selvom autonome systemer kan operere med stor uafhængighed, indebærer deres udvikling og anvendelse komplekse etiske, juridiske og operationelle udfordringer. Menneskelig ansvarlighed, kontrol og etik kan aldrig helt fraviges, selv når maskiner tager beslutninger på slagmarken. Det indebærer, at udviklingen af AI og autonome systemer må ske med en grundig forståelse af både teknologiens muligheder og dens begrænsninger, herunder konsekvenserne for international sikkerhed, menneskerettigheder og krigens love.