Manglen på menneskelig agens i den specifikke beslutning om at dræbe eller såre underminerer anerkendelsen af målets menneskelighed og krænker den menneskelige værdighed for både dem, der træffer beslutningen, og dem, der rammes. Dette bidrager til en dehumanisering af krigsførelse, hvor tab af liv sker uden aktiv menneskelig deltagelse, hvilket vækker etisk modstand, da beslutninger om liv og død bliver adskilt fra direkte menneskelig kontrol. Krigens praksis, historisk forankret i ridderlighedsidealer og gensidig risiko, indebærer en form for balance, hvor begge parter påtager sig fare, hvilket skaber en begrænsning og etiske regler, som opretholder en vis form for gensidighed. Autonome våbensystemer (AWS), der kan operere uden direkte menneskelig støtte, truer denne balance ved at give én part mulighed for at engagere sig i kamp uden fysisk risiko, mens modparten stadig kæmper med menneskelige ressourcer. Denne asymmetri kan øge uligheden i risiko, hvilket ikke blot er en ny udfordring, men intensiveres med autonome våben. Diskussionerne omkring forbud mod droner og "dræberrobotter" overser ofte AI-systemers potentielle fordele i beslutningsstøtte og beskyttelse af civile og egne styrker, hvilket gør debatten unuanceret.

Udviklingen mod slagmarker – både kinetiske og cyberspace – hvor menneskelig involvering i dødsbeslutninger er minimal eller ikke-eksisterende, og hvor maskinlæringssystemer øger afstanden mellem brugerens intentioner og beslutningernes faktiske udfald, udgør en central etisk bekymring ved udrulningen af sådanne systemer. At fastholde etiske forpligtelser for alle udviklere og brugere af autonome våbensystemer kan være en vej til at håndtere denne udfordring uden nødvendigvis at forbyde teknologien fuldstændigt.

På det juridiske plan vil internationale reguleringer af AWS være af interesse for mange stater, ikke mindst på grund af risici for sikkerhed og eskalation. Regler vil primært påvirke militære operatører, mens problematikken omkring dual-use – hvor samme teknologi kan bruges både civilt og militært – vil være sværere at regulere hos producenter. Et forbud mod specifikke anvendelser, for eksempel i forbindelse med nukleare affyringsbeslutninger eller hypersoniske missiler, kan være nødvendigt.

Etisk set opstår to hovedproblemer ved anvendelsen af AI i militæret: risikoen for uheld og risikoen for misbrug. Kompleksiteten i AI-systemer øger sandsynligheden for alvorlige uheld, hvilket forpligter udviklere og brugere til at foretage grundige risikovurderinger og forebyggende tiltag. Misbrug kan ske ved bevidst fejlanvendelse, som når våbensystemer rettes mod civile, eller ved fjendtlig overtagelse af systemer gennem metoder som spoofing, hvor kommunikation forfalskes for at narre systemet.

Automatisering kan reducere menneskelige fejl i monotone, opmærksomhedskrævende opgaver som overvågning, da maskiner ikke lider af træthed eller distraktion. Dog, når fejl opstår i AI-systemer, har de ofte en langt større rækkevidde, fordi systemerne er sammenkoblede og komplekse, hvilket kan føre til hurtig kaskadeeffekt i flere subsystems operationer. Disse "emergente effekter" – konsekvenser, der opstår ved interaktion mellem systemer – øger sårbarheden i militære netværk. Dette kaldes “Technology Roulette,” hvor fejl i ét system kan udløse dødelige reaktioner i et komplekst teknologisk landskab med mange aktører.

Endvidere kan softwareudviklingens specialisering skabe misforhold mellem det tekniske design og de virkelige operationelle krav, fordi softwareingeniører ofte mangler dyb indsigt i det specifikke domæne, for eksempel autopiloters funktion i luftfart. Denne afstand mellem design og anvendelse kan føre til fejlfunktioner, der ikke opdages før det er for sent.

Det er derfor vigtigt at forstå, at udover de åbenlyse etiske udfordringer ved autonom krigsførelse, ligger der en teknologisk og organisatorisk kompleksitet, som kræver et skarpt fokus på systemintegration, ansvarlighed og regulering. Etisk militær AI-udvikling må balancere mellem at udnytte teknologiske fordele, som øget beskyttelse af civile og soldater, og at forhindre en dehumanisering af krigens beslutninger, hvor maskiner overtager den sidste dømmekraft. Ligeledes bør læseren være opmærksom på, at trods AI’s potentiale for at minimere fejl, kan fejl i AI-systemer have mere vidtrækkende og uforudsigelige konsekvenser end menneskelige fejl, hvilket nødvendiggør både teknisk forsigtighed og etisk ansvarlighed.

Hvordan påvirker bias i militære AI-systemer beslutningstagning og måludvælgelse?

Militære anvendelser af kunstig intelligens (AI) åbner for en række komplekse etiske, moralske og juridiske udfordringer, ikke mindst på grund af de bias, som kan være indlejret i AI-systemernes design og datagrundlag. Selvom meget fokus ligger på autonome våbensystemer (LAWS), er det vigtigt at forstå, at der findes mange andre militære AI-anvendelser, der kan indeholde forskellige former for bias. Når militære styrker i stigende grad implementerer AI-systemer i krigssituationer, er det afgørende, at de erkender, hvordan bias kan infiltrere disse systemer og arbejder aktivt på at mindske og afbøde dem.

Et centralt aspekt er, hvordan kønsbias ofte forstås som noget, der alene vedrører kvinder, og hvordan debatten om kønsbias i AI dermed ofte fokuserer på, hvordan kvinder kan blive negativt påvirket. Imidlertid bør man også være opmærksom på, hvordan kønsstereotyper om mænd kan spille en rolle, især når de kombineres med andre identitetsfaktorer som religion og etnicitet. Sådanne bias kan eksempelvis medføre lavere tærskler for, hvornår mænd opfattes som militære mål. AI-systemer, der arbejder med trusselsvurderinger og anbefaler potentielle mål, er særligt udsatte for bias. Det kan skyldes, at algoritmerne baserer sig på historiske data, hvor visse grupper – ofte bestemte grupper af mænd – allerede er overrepræsenteret som mistænkte eller fjender, uanset den faktiske situation.

De eksempler, der typisk nævnes, kommer hovedsageligt fra USA og Europa, men lignende dynamikker findes globalt. Diskriminerende forestillinger om bestemte etniske grupper, som får dem til at fremstå som trusler, kan observeres i mange lande som Kina, Indien og Sydafrika. En bekymring er, at anvendelsen af AI i disse kontekster kan forstærke og institutionaliserer eksisterende sociale uligheder, ligesom det er blevet påvist i USA, hvor biased AI har medvirket til fejlagtige domfældelser, især blandt sorte amerikanere.

Det globale IT-miljø er også præget af kønsulighed, idet mænd dominerer fagområdet. Det kan betyde, at AI-programmer, som interagerer med mennesker, ofte bliver designet med en mandlig brugerprofil i tankerne. Dette forstærker risikoen for, at AI-systemer ikke tager højde for kvinders behov eller sikrer lige behandling, hvilket har betydning både i civile og militære sammenhænge.

At tackle bias i AI er en afgørende udfordring med potentielt alvorlige konsekvenser, hvis sådanne systemer anvendes i krig. NATO’s nylige AI-strategi markerer et vigtigt første skridt ved at anerkende nødvendigheden af at reducere bias, men det kræver en grundig forståelse af, hvordan bias opstår i AI, og hvilke tiltag der kan iværksættes for at mindske dem. Forskningsfeltet omkring militære implikationer af kønsbaseret og andre former for bias i AI er stadig i sin spæde begyndelse og behøver en dybere og bredere tilgang, som inkluderer globale perspektiver.

Der findes anbefalinger fra AI-eksperter om, hvordan man kan minimere bias i ikke-militære AI-anvendelser, som militæret med fordel kan lære af. Disse inkluderer blandt andet revision og auditering af de data, der bruges til at træne algoritmer, og inddragelse af tværfaglige teams med ekspertise i køns- og racediskrimination. Det er nødvendigt at forstå, at bias ikke blot er en teknisk fejl, men et resultat af sociale og historiske processer, der kan forstærkes gennem teknologi, hvis de ikke aktivt modvirkes.

Det er væsentligt at erkende, at bias i militær AI ikke kun er en teknisk problemstilling, men også en dybt forankret samfundsmæssig udfordring. Udover at forbedre algoritmer og data, må der arbejdes med institutionelle og organisatoriske ændringer for at sikre retfærdighed og undgå diskrimination i militære beslutningsprocesser. Indsatsen mod bias skal derfor forstås som en tværgående og vedvarende proces, der forener teknologisk indsigt med sociale og etiske overvejelser for at forhindre, at AI bliver et redskab til at cementere eksisterende uligheder og fordomme i konfliktzoner.

Hvordan skal drab på terrorister forstås juridisk og etisk i en verden med droner?

Den juridiske og moralske forståelse af målrettede drab på terrorister i fredstid er en kompleks problemstilling, der udfordrer traditionelle kategorier inden for folkeretten. Begrebet "peacetime reprisal" anvendes nogle gange for at beskrive handlinger som drabet på Ayman al-Zawahiri, men denne betegnelse er ikke entydig. Ifølge Michael Walzer afspejler internationale krigs- og fredslove kun ekstreme tilstande, mens mange begivenheder befinder sig i et gråzonefelt mellem krig og fred, hvor begreber som "krig" og "fred" alene ikke er tilstrækkelige til at dække virkeligheden. Det gør, at staters brug af droner til målrettede drab i fredstid fremstår som en form for asymmetrisk repressal, der udfordrer gængs juridisk terminologi.

USA’s politik overfor terrorgrupper som Lashkar-e-Taiba og Jaish-e-Mohammad illustrerer denne ambivalens. Selvom USA ikke officielt betegner Pakistan som en statssponsor for terrorisme, opererer landet alligevel med en delvist instrumental og delvist modsigende strategi på terrorområdet. Brugen af droner som våben mod terrorister, der opererer fra lande uden formel krigserklæring, er et eksempel på dette. Droner anvendes for at undgå civile tab og samtidig sende en tydelig besked om, at selv fjernstyrede angreb kan udøves som hævn eller afskrækkelse uden direkte menneskelig kontakt.

Historisk set kan Israels hævnaktion mod Libanon i 1968 anses som et klassisk eksempel på en "peacetime reprisal." Efter et terrorangreb mod et israelsk fly i Athen, som kostede en israelsk passager livet, iværksatte Israel et hævntogt, hvor 13 civile libanesiske fly blev ødelagt uden at civile blev dræbt. Denne aktion blev fordømt af FN som et brud på Libanons suverænitet, men Israel hævdede, at Libanons regering havde en forpligtelse til at forhindre terrorhandlinger på sit territorium. Denne sag rejser det principielt vanskelige spørgsmål om, hvorvidt en suveræn stat kan eller skal tvinges til at opfylde en sådan forpligtelse af en anden stat.

Ansvar for sådanne handlinger – både moralsk og juridisk – påhviler altid statens øverste leder, der agerer på vegne af befolkningen og som repræsenterer staten internationalt. Den samme leder kan blive både rost og bebrejdet for sine handlinger. Eksempelvis viste USA’s cruise-missilangreb på Al-Qaeda træningslejre i 1998 sig ikke at forhindre terrorangrebene den 11. september 2001, hvilket illustrerer begrænsningerne ved sådanne militære aktioner.

Den stigende kommercielle udbredelse og teknologiske udvikling af ubemandede luftfartøjer (UAV’er) eller droner åbner nye og farlige muligheder for både stater og terrorgrupper. Droner kan lastes med kemiske, biologiske, radiologiske, nukleare eller konventionelle sprængstoffer og udgør derfor et alvorligt sikkerhedstrusselfænomen. Allerede har flere terrorgrupper, herunder Hezbollah, Houthi-rebellerne og Islamisk Stat, benyttet droner til rekognoscering og angreb, som for eksempel bombardementer af militære baser eller luftforsvar.

Den 4. august 2018 blev Venezuelas præsident Nicolas Maduro udsat for et droneangreb med eksplosiver under en officiel ceremoni, hvilket illustrerer hvor let droner kan anvendes til attentater mod højtstående statslige personer, og hvor svært det er at forsvare sig mod sådanne trusler. På samme måde angreb to bevæbnede droner i 2021 en indisk luftvåbenbase, hvilket førte til en alvorlig bekymring i FN om brugen af bevæbnede droner i terroraktiviteter.

En af de mest skræmmende trusler er muligheden for et terrorangreb med masseødelæggelsesvåben leveret via droner til store folkemængder som stadioner, politiske møder eller transportknudepunkter. Uanset om angrebet lykkes i at forvolde omfattende skade, kan det skabe en psykose af frygt og usikkerhed, hvilket i sig selv opfylder terroristernes mål.

Det er vigtigt at forstå, at den juridiske regulering og etiske vurdering af drab med droner må indtænke den nye asymmetri, som teknologien bringer ind i konflikter og terrorbekæmpelse. Ligesom suverænitet, staters forpligtelser og ansvar, udgør også de psykiske og politiske konsekvenser af disse handlinger væsentlige elementer i forståelsen af moderne krigsførelse og terrorbekæmpelse. Den voksende tilgængelighed af UAV-teknologi kræver en konstant afvejning mellem sikkerhed, suverænitet og international ret, samtidig med at risikoen for eskalation og utilsigtede civile tab holdes på et minimum.