Udviklingen af AI-drevne militærrobotter udfordrer grundlæggende både teknologiske, etiske og juridiske rammer inden for krigsførelse. Ingeniører spiller en central rolle i at integrere etiske hensyn direkte i algoritmedesignet på et tidligt stadie af udviklingen, hvilket er afgørende for at imødegå potentielle misbrug og utilsigtede konsekvenser. Samtidig må beslutningstagere og politikere have et klart overblik over de militære anvendelsesmuligheder og de etiske dilemmaer, der følger med AI-assisterede våbensystemer. At udforme regulerende politikker fra starten om, hvad der er tilladt i brugen af AI i militæret, er en forudsætning for at overholde folkeretten og krigens love.
Teknologien er stadig i en udviklingsfase, hvor AI endnu ikke kan matche menneskelig intelligens, især under de komplekse og uforudsigelige forhold, der kendetegner kampzoner. Som M.L. Cummins fremhæver, er det usandsynligt, at AI i den nærmeste fremtid vil kunne agere med samme ekspertise og dømmekraft som mennesker i sådanne højrisikoområder. Udviklingen af autonome våbensystemer, der kan tænke og handle uafhængigt af menneskelig kontrol, er derfor stadig begrænset, men potentialet for disruption og ændring af krigsførelse er stort.
Historisk set har militærrobotter eksisteret i mange årtier, med Sovjetunionens teletanks under Anden Verdenskrig som et af de tidligste eksempler. Siden da har udviklingen bevæget sig fra simple fjernstyrede køretøjer til avancerede autonome systemer, som i dag indgår i mange landes forsvar. Robotter kan groft inddeles i tre typer: automatiske, som reagerer mekanisk på stimuli uden diskrimination; automatiserede, som følger forprogrammerede sekvenser med sensorer; og autonome, som kan handle med minimal menneskelig indblanding. Militær magtprioriterer i stigende grad autonome robotter på grund af deres evne til at operere under ekstreme forhold uden emotionelle begrænsninger og frygt, hvilket gør dem egnede til farlige opgaver, der kan redde menneskeliv.
Markedet for militærrobotter vokser kraftigt og forventes at nå op mod 24 milliarder dollars inden 2025. De typer af militærrobotter, der anvendes, spænder vidt: fra transport og eftersøgning, brandbekæmpelse, minerydning, overvågning, bevæbning til ubemandede luft-, land- og undervandsfartøjer. Eksempler som MUTT, RISE, DOGO, Guardbot og Centaur illustrerer den brede vifte af teknologier og formål, hvor robotter erstatter eller assisterer soldater på jorden, mens UAV’er og UUV’er udvikles til luft- og havmiljøer.
Teknologisk set har robotterne allerede forbedret effektiviteten og sikkerheden ved militære operationer ved at kunne operere i farlige miljøer uden emotionelle reaktioner og med øget præcision og hastighed. De kan hurtigt tilpasse sig forskellige terræner og udføre opgaver, som tidligere var umulige eller for risikable for mennesker. Dette åbner nye strategiske muligheder, men rejser samtidig spørgsmål om ansvar, kontrol og etiske grænser for autonomi i krigsførelse.
Forståelsen af denne teknologis betydning kræver mere end blot en teknisk indsigt. Det er nødvendigt at erkende, at selvom AI ikke fuldt ud kan efterligne menneskelig dømmekraft i nuværende eller nær fremtid, er implementeringen af autonome systemer i militære operationer allerede en realitet, og denne udvikling sker hurtigt. Lande som USA, Rusland, Kina, Israel og Indien investerer massivt i udviklingen af både land- og undervandsrobotter med stadig større integration af AI.
Det er væsentligt at forstå, at udviklingen af AI-militærteknologi foregår under streng fortrolighed, hvilket gør det vanskeligt at vurdere præcist, hvor avancerede disse systemer er, og hvordan de anvendes i praksis. Denne hemmeligholdelse kan skabe udfordringer for både regulering og offentlig debat om de etiske og juridiske konsekvenser.
Udover teknologiske aspekter skal der lægges vægt på, at ansvar og kontrol med autonome våbensystemer forbliver under menneskelig overvågning, således at krigens love kan overholdes, og risikoen for utilsigtede skader kan minimeres. Den menneskelige faktor i beslutningstagningen kan ikke helt erstattes, og det er afgørende at fastholde klare grænser for, hvornår og hvordan autonome systemer må agere.
Det er vigtigt at erkende, at AI i militær kontekst ikke blot er et teknologisk spørgsmål, men også et samfundsmæssigt og moralsk problem, der kræver tværfaglig dialog mellem ingeniører, jurister, etikere, politikere og militære ledere. En sådan tilgang sikrer, at udviklingen sker ansvarligt og i overensstemmelse med internationale normer og værdier, samtidig med at militærets operative behov imødekommes.
Hvordan kan autonome AI-drevne våbensystemer ændre krigens natur?
Indtil nu har mennesker i høj grad kontrolleret robotter, men fremkomsten af autonome robotter drevet af kunstig intelligens, hvor menneskelig kontrol er fraværende, rejser alvorlige bekymringer. Et sådant scenarie kan føre til det, man populært omtaler som ‘robotocalypse’. Eksempler på dette findes allerede i militære sammenhænge, hvor robotter som Samsungs SGR A1, opererende i den koreanske demilitariserede zone, kan udføre overvågning, sporing, stemmegenkendelse og endda affyre våben. Selvom disse robotter i øjeblikket fungerer under menneskelig overvågning, er de designet med evnen til at handle uafhængigt, hvis nødvendigt. På lignende vis har Israel Aerospace Industry (IAI) udviklet semi-autonome militære systemer som RoBattle og Jaguar, der kan udføre beskyttelse og patruljering uden konstant menneskelig styring. Det samme gælder Harop ’selvmordsdronen’, der kan operere både med og uden menneskelig kontrol, og som allerede er blevet brugt i aktive konflikter.
Disse teknologiske fremskridt bringer en ny æra af krigsførelse, hvor droner og autonome våbensystemer ændrer både taktik og strategi. Droner har udviklet sig fra simple fjernstyrede våben til AI-drevne, selvstændige enheder, der kan identificere, forfølge og eliminere mål uden direkte menneskelig indgriben. Historisk set startede denne udvikling med balloner og fjernstyrede bomber, men i dag spiller avancerede UAV’er en central rolle i konflikter over hele verden, som set i Nagorno-Karabakh og den russisk-ukrainske krig. Her har kamikaze-droner forårsaget betydelige tab på slagmarken og demonstreret, hvordan AI-drevne systemer kan blive uundværlige i moderne krigsførelse.
Imidlertid medfører denne teknologiske udvikling alvorlige etiske og juridiske udfordringer. Brugen af autonome våbensystemer uden menneskelig indgriben kan føre til ansvarsfrihed, hvor det bliver uklart, hvem der bærer ansvaret for beslutninger om liv og død. Denne mangel på ansvar skaber en fare for øget brug af dødelige våben, fordi risikoen for repressalier eller juridiske konsekvenser mindskes. FN’s generalsekretær António Guterres har da også udtrykt, at autonome maskiner med magten til at træffe beslutninger om at tage liv uden menneskelig involvering er både moralsk uacceptable og politisk uholdbare.
På trods af udbredt bekymring, herunder fra menneskerettighedsorganisationer, FN og forskellige NGO’er, er der endnu ikke opnået en international aftale, der effektivt forbyder udvikling eller anvendelse af disse våbensystemer. Mange lande anerkender nødvendigheden af regulering, men konkrete aftaler og bindende traktater er stadig ude af rækkevidde. Dette skaber en farlig asymmetri, hvor visse aktører kan udnytte autonome våbensystemers kapaciteter med minimal risiko for konsekvenser, især i konflikter hvor ikke-statslige aktører og kriminelle kan få adgang til teknologien.
Udviklingen af AI-drevne autonome våben, som dem skildret i fiktive fremstillinger som ’Slaughterbots’, peger på en skræmmende fremtid, hvor små droner udstyret med ansigtsgenkendelsesteknologi kan udføre målrettede drab uden menneskelig kontrol. Det er ikke længere udelukkende science fiction. Dagens teknologi har allerede muligheden for at identificere og eliminere specifikke personer med minimal collateral damage, som det blev set ved drabet på Ayman al-Zawahiri i Kabul i 2022.
Det er afgørende at forstå, at autonome våbensystemer ikke blot ændrer krigens dynamik, men også udfordrer fundamentale principper om ansvar, etik og menneskerettigheder. Anvendelsen af disse systemer i asymmetriske konflikter, eller når de falder i hænderne på ikke-statslige aktører, kan føre til en destabilisering af internationale normer og øge risikoen for udbredt vold og kaos. Samtidig vil teknologisk innovation sandsynligvis accelerere, hvilket betyder, at muligheden for global regulering og kontrol bliver endnu mere presserende, hvis man skal undgå en eskalering af autonome væbnede konflikter.
Hvordan kan kunstig intelligens påvirke militære systemer og beslutningstagning?
Edge masking, knowledge fusion og knowledge replacement er ikke særlig effektive, især i konteksten af naturlig sprogbehandling (NLP) designet til militære opgaver. Masked language models kan kun modellere lav-niveau semantisk viden. Generelt er præ-træningsopgaver designet med henblik på korpora og enheds-funktioner i almindelige tekster, hvilket ikke er egnet til militær tekst-mining. Derfor er det nødvendigt at udvikle domænespecifikke præ-træningsøvelser. Den store udfordring for forskere og ingeniører er at udvikle en mere effektiv metode til at inkorporere militær domænespecifik viden i sprogrepræsentationsmodeller.
Kunstig intelligens (AI)-baserede applikationer og systemer udgør betydelige risici, som primært stammer fra de unikke karakteristika ved maskinlæringsteknologi, især dybe neurale netværk, som driver dem. AI-drevne militære systemer er særligt bekymrende på grund af den trussel, de udgør for menneskeliv. I hjertet af disse bekymringer ligger den stadigt voksende intelligente adfærd, som AI-systemer har udvist i de seneste år, hvilket har ført til en stadigt større delegation af kognitive funktioner til maskiner. Dette har givet anledning til en række juridiske, etiske og moralske problemstillinger, som derfor skal analyseres og adresseres korrekt. Samtidig er det universelt accepteret, at store fordele kunne komme menneskeheden til gavn både på og uden for slagmarken, hvis AI's kraft udnyttes på en ansvarlig måde. Denne dobbeltkantede natur af AI-teknologier understreger behovet for en nøje overvejet mekanisme til regulering af udviklingen af autonome våbensystemer (AWS).
Mallick advarer om, at AI-relateret software, mens det øger beslutningstagningshastigheden, også er eskalerende af natur. Krig kan blive ukontrollerbar. Så integrationen af AI i kommando-strukturen er en risikabel beslutning. Hvad med de sværmende robotter, et våbensystem, som USA og Kina investerer ressourcer i? Kommandoen af sværmende robotter involverer to dele: menneske-maskine og maskine-maskine interaktioner. Interaktionen mellem de enkelte robotter i sværmen vil skabe emergent adfærd. Denne adfærd er ikke forudprogrammeret, så kommandanten kan ikke forudsige systemets opførsel. Merel Ekelhof og Giacomo Persi Paoli advarer mod farerne i følgende ord: ‘[B]etydningen af manglen på en universel model, der tillader mennesker at forstå kompleks emergent adfærd og tage passende handlinger i rette tid.’ Dette vil resultere i en mangel på tillid og kontrol fra kommandantens side over sværmen og øge risikoen for uønsket adfærd fra robot-sværmen.
Panwar påpeger, at AI-udløste risici ved forskellige typer militære systemer kan variere meget, og at anvendelse af et fælles sæt risikominimeringsstrategier på tværs af alle systemer sandsynligvis vil være suboptimalt af følgende grunde: De kan være for lempelige for meget højrisko-systemer, alt for strenge for lav-risiko systemer og hæmme udviklingen af systemer, der på forskellige måder kunne være gavnlige. En risikobaseret tilgang har potentiale til at overkomme disse ulemper. Hvad der kræves, er at skitsere rammerne for en sådan tilgang, som kunne anvendes til regulering af militære systemer. Den analyse, der understøtter denne tilgang, selvom den ikke altid er udtrykt eksplicit, er dybt styret af nødvendigheden af at opnå meningsfuld menneskelig kontrol (MHC), som er et centralt mål i alle AI-drevne militære systemer.
I et kapitel advarer Guru Saday Batabyal om, at hvis MHC ikke etableres, kan et Terminator-lignende AWS blive en realitet i den nærmeste fremtid. Kan AWS blive en maleficent super-intelligent dræbemaskine? Desuden skal vi forstå og bryde konceptet MHC ned og derefter overveje, hvordan vi etablerer og opretholder det, og hvilken form for kommando-økosystem der er nødvendigt for dette. Manned-unmanned teaming har en alvorlig begrænsning: truslen fra elektronisk krigsførelse (EW) / cyberkrigsførelse, hovedsageligt spoofing og forstyrrelse af dronekommunikationer. Kraftigt krypterede kommunikationer er vanskelige at dechiffrere, men de kan blive forstyrret. Flere datalink kan knyttes til en UAV for at sikre redundans, så en elektronisk angreb på en enhed nødvendigvis ikke vil nedlægge hele støttesystemet, der muliggør ubemandet flyvning. En tungere drone, udstyret med EW-modforanstaltninger, ville kunne overleve elektroniske angreb, men en sådan drone med større nyttelast ville være mindre manøvredygtig mod fjendtlige sværmende droner og bemandede fly. Kina er for eksempel stadig bagud i kapløbet om at fremstille styrings- og kontrolsystemer inden for solid-state elektronik og mikroprocessorer.
Et muligt svar på at overvinde fjendens luftforsvarssystemer kunne være at følge princippet om uvidende samarbejde (emergent adfærd). I dette netværk, der ligner en myrekoloni, forstår dronerne ikke fuldt ud tilstedeværelsen og aktiviteten af andre droner. I stedet følger de instruktioner, der er mønstrede for en samlet effekt gennem begrænset overvågning af deres omgivelser. I dette setup ville en drone udstyret med kollision-undgåelsessoftware kunne opdage eventuelle huller eller defekte enheder omkring sig og selvjustere. Princippet om uvidende samarbejde kan tillade dronerne at gennemføre samarbejdende missioner og holde dronesværmen i tæt formation. Et sådant kommando-system kræver meget lidt kommando-signaler fra hovedkvarteret, der gennemfører droneangrebet mod fjenden. Dette kommando-system er derfor relativt immun mod fjendtlig EW.
Dog kan ANI-udstyrede våbensystemer (våben med begrænset autonomi) forårsage utilsigtet og unødvendig skade på civile på begge sider eller engagere sig i fratricid. Dette kunne være en mulighed, fordi mens man kæmper mod maskiner, kan AWS gå galt, eller i den digitaliserede krigsførelse kan våbensystemer med AI blive hackede af fjendtlige hackere som en del af cyberkrigsførelse. Van Creveld advarer indsigtsfuldt om, at man ikke bør blive en slave af teknologien. Man bør forstå begrænsningerne ved en teknologisk enhed og forstå, hvad den ikke kan gøre. For at udfylde denne mangel bør mennesket træde ind.
Desuden kræver effektiv kommando omhyggelig opmærksomhed på træning og doktrin. Det, der er bekymrende, er den stigende afhængighed af højere niveau kommando-hovedkvarterer af enorme mængder data, der sendes frem og tilbage gennem computere. Denne informationsstrøm mellem enheder på frontlinjen og hovedkvarteret (til tider via satellitforbindelser) er sårbar overfor cyberangreb.
AI og krigsførelse i rummet og cyberspace er to nye elementer i den igangværende AI-initierede militære revolution. Cyberspace er et kunstigt domæne genereret af computere, og sidstnævnte blev skabt af menneskeheden i det 20. århundrede. Oprindeligt blev cyberkrigsførelse kaldt elektronisk krigsførelse og derefter informationskrigsførelse. James A. Green definerer cyberkrigsførelse som anvendelsen af teknologisk magt i cyberspace (dvs. netværk af computere og de brugere, der er bag dem), hvor information opbevares, deles og kommunikeres online. Cyberangreb kan forårsage ødelæggelse af fjendens kritiske infrastruktur uden direkte kinetisk effekt.
Hvordan påvirker autonome våbensystemer og satellitdata fremtidens krigsførelse globalt og i Afrika?
Udviklingen af autonome våbensystemer har allerede markeret en betydelig transformation i militærstrategier verden over. Rusland har udtrykt ambitioner om at udvikle robot-sværme, som kan fjerne soldater fra frontlinjerne, mens Tyrkiet har fremstillet STM Kargu – et dronessystem til asymmetrisk krigsførelse, der både kan operere manuelt og autonomt. FN’s Sikkerhedsråd har rapporteret, at Kargu udførte det første autonome droneangreb i historien, og der er mistanker om dets brug under Nagorno-Karabakh-konflikten i 2020. Israel har længe automatiseret sine våbensystemer og udtrykker modstand mod internationale reguleringer, der søger at begrænse sådanne systemer. Landets automatiserede grænsevagter langs Gaza med maskingeværer, der kan identificere og affyre mod uautoriserede bevægelser, og det autonome missilforsvarssystem Iron Dome, er blandt de mest avancerede i verden. Teknologier som HARPY-dronen er også blevet købt og videreudviklet af lande som Kina, Sydkorea, Tyrkiet og Chile.
Autonome systemer bliver ikke kun anvendt af stater, men også af ikke-statslige aktører. Eksempelvis benyttede den shittiske milits i Irak i 2015 et bevæbnet jordrobotisk system. Det peger mod en fremtid, hvor krigsførelse i stigende grad vil være autonom og dermed potentielt kan redde liv ved at fjerne soldater fra direkte kamp. Samtidig spiller AI-genererede jordobservationsdata en stadig vigtigere rolle i planlægning og udførelse af militære operationer. Den hastigt voksende mængde små satellitter i kredsløb om Jorden leverer nu data af høj kvalitet inden for fjernmåling, kommunikation, navigation og endda nærhedsoperationer i rummet.
USA, Kina og Rusland har de største andele af efterretningssatellitter, og især USA har eksperimenteret med at integrere satellitdata i realtid til at forkorte tidsrummet fra identifikation af mål til angreb betydeligt. Det amerikanske Project Convergence har reduceret denne sensor-til-skyder-tidsramme fra 20 minutter til 20 sekunder, hvilket revolutionerer evnen til hurtigt og effektivt at træffe beslutninger på slagmarken. Geospatial intelligens har allerede været brugt til at finde og eliminere terrorister globalt, hvilket understreger, hvordan rumteknologi integreres i moderne krigsførelse.
I Afrika vækker indførelsen af AI i militærstrategier komplekse etiske spørgsmål. Centrale dilemmaer omfatter evnen af autonome våben til at skelne mellem militære og civile mål, som er grundlæggende for international humanitær ret. Satellitdata kan hjælpe med at undgå fejlagtige angreb og unødvendige tab, men samtidig kan ukontrolleret eller uetisk brug føre til alvorlige konsekvenser og overtrædelser af regler for væbnet konflikt. Problematikker som udbredelse af billige autonome systemer, misbrug af åbent tilgængelige satellitdata og fejlidentifikation af mål er særligt bekymrende.
Afrikanske lande står over for udfordringer med teknologisk kapacitet, og deres deltagelse i internationale diskussioner om autonome våbensystemer har været begrænset, men er vigtig, da beslutninger truffet globalt også vil påvirke kontinentet. Regionens høje niveau af væbnede konflikter og terrortrusler forstærker behovet for at opgradere militær kapacitet. Konfliktzoner som Libyen, Sydsudan, Den Centralafrikanske Republik, Etiopien og Cameroun er fortsat ustabile, og militære kup i Niger og Guinea Bissau i 2023 har øget usikkerheden.
Samtidig har Afrika oplevet en vis teknologisk fremgang. Nigeria og Sydafrika er militært førende i regionen og har udviklet autonome teknologier, selvom de ikke kan måle sig med stormagterne. Den tyrkiskfremstillede Bayraktar TB2 drone er blevet anskaffet i flere afrikanske lande, herunder Togo, Niger, Etiopien, Marokko, Tunesien og Burkina Faso, som svar på jihadistiske trusler. Ghana har modtaget overvågningsdroner til at styrke maritime patruljer, mens Sydafrika har udvidet sin droneflåde med avancerede modeller som N-Raven, der kan udføre præcisionsangreb og understøtte fremtidens krigsførsel med intelligente sværmteknologier og mandskabsløse operationer.
Det er vigtigt at forstå, at denne teknologiske udvikling ikke kun ændrer, hvordan krige føres, men også stiller skarpt på nødvendigheden af etiske, juridiske og politiske rammer, som kan regulere brugen af autonome våben. Den hurtige teknologiske udvikling kræver derfor global dialog og samarbejde for at undgå eskalation og utilsigtede konsekvenser, især i regioner som Afrika, hvor både ressourcer og reguleringskapacitet ofte er begrænsede. Desuden bør man have for øje, at teknologisk dominans i krig ikke alene handler om råstyrke, men også om evnen til at integrere og analysere data i realtid, hvor satellit- og AI-teknologier spiller en central rolle.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский