Betydningen af at søge rådgivning, især fra velinformerede individer, har længe været en grundlæggende tilgang til at træffe velovervejede beslutninger. Denne praksis indebærer ikke blot at opsøge råd, men også at bevare en kritisk afstand til de modtagne anbefalinger. Med fremkomsten af kunstig intelligens (AI) indtager maskiner nu en rolle, som tidligere var forbeholdt mennesker alene. Undersøgelser viser, at mennesker ofte ukritisk accepterer algoritmiske konklusioner, også når disse går imod intuitionen. Denne tendens, kaldet automatiseringsbias, forstærkes under tidspres og stress, hvor man søger at mindske kognitiv belastning og samtidig overlade ansvaret til maskinernes formodede overlegne analytiske evner.

Denne overafhængighed fører til det fænomen, der kaldes automatiseringskomplacens, hvor menneskelig opmærksomhed og kontekstforståelse falder betydeligt. I militære sammenhænge har det blandt andet medført, at soldater overser fjendtlige mål i deres nærområde, fordi deres fokus er låst på overvågningsskærme. Menneskers evne til at opfatte og analysere information uden for de rammer, som AI-systemer præsenterer, er begrænset. Dette skaber risiko for at overse kritiske detaljer, som ikke prioriteres eller fremhæves af beslutningsstøttesystemerne.

En særlig bekymring knytter sig til AI-systemers evne til at træffe måludvælgelsesbeslutninger uden menneskelig indblanding. Begrebet autonome våben – eller "killer robots" som de ofte omtales – refererer til våben, der kan identificere og engagere mål uden direkte menneskelig kontrol. Diskussionen om sådanne systemers lovlighed og etik har udløst internationale kampagner for at forbyde dem på linje med kemiske våben og landminer. Kritikere af forbuddet påpeger dog vanskeligheden ved klart at definere, hvad der skal omfattes, og fremhæver de potentielle humanitære fordele ved visse autonome systemer.

I måludvælgelsesfasen, hvor kommandanter godkender prioriterede mål og taktiske enheder eksekverer missionen, kan autonome systemer gennemføre hele F2T2EA-cyklussen (Find, Fix, Track, Target, Engage, Assess) uden menneskelig indblanding. Her opstår de centrale etiske dilemmaer.

Fortalerne for autonome våben fremhæver flere fordele: Fjernelse af menneskelige følelser som hævn og træthed kan føre til mere kontrollerede konflikter og hurtigere afslutning af fjendtligheder. Øget præcision kan mindske collateral damage og utilsigtede fejl. Autonome systemer mangler behov for selvforsvar og kan derfor operere med større fleksibilitet for at beskytte civile. Endelig kan fjernstyrede eller autonome våben øge beskyttelsen af soldater ved at mindske deres eksponering.

Modstanderne understreger, at følelser er afgørende for moralsk dømmekraft, hjælper os med at forstå retfærdighed, værdighed og respekt. At fjerne disse følelser reducerer krig til en mekanisk proces uden medfølelse. Kompleksiteten i at programmere autonome systemer til at håndtere uforudsete situationer er enorm, og maskiner kan ikke matche menneskets evne til at forstå nuancer og ændrede forhold på slagmarken. Den såkaldte "frame problem" illustrerer maskiners vanskeligheder ved at afgøre, hvilke faktorer der er relevante i en given kontekst. At lade maskiner træffe beslutninger om liv og død uden menneskelig indgriben krænker menneskelig værdighed ved at reducere ofrene til blot digitale mål, uden mulighed for moralsk overvejelse eller valg.

Det er essentielt at forstå, at selv i samarbejdet mellem menneske og maskine, er menneskets rolle ikke blot at følge algoritmiske anbefalinger, men at bevare en kritisk og moralsk ansvarlig vurdering af situationen. AI kan ikke erstatte den dybe forståelse for kontekst, etik og menneskelige konsekvenser, som er nødvendig i krig. Risikoen for at miste kontrol og tillid til maskinerne kan føre til alvorlige fejl og moralske overgreb, som ikke blot underminerer juridiske normer, men også fundamentale menneskelige værdier.

Hvordan påvirker kunstig intelligens etik og lovgivning i krigsførelse?

Krigsteknologi har gennem historien fundamentalt ændret måden, hvorpå krige bliver udkæmpet. Fra oldtidens buer og pile over middelalderens langbuer til opfindelsen af krudt og senere kampvogne og fly i verdenskrigene, samt til atomvåben, har udviklingen været kontinuerlig. I dag står vi over for en ny æra med kunstig intelligens (AI), der assisterer fjernstyrede ubemandede luftfartøjer (droner), robotter og cybervåben. Det, som tidligere blev betragtet som science fiction, er blevet en realitet, og denne teknologiske udvikling udfordrer vores traditionelle forestillinger om krigsførelse: hvem der skal kæmpe, og hvordan kampen skal føres – menneske, maskine eller en kombination.

Begrebet kunstig intelligens opstod i 1956 på Dartmouth Summer Research Conference, hvor computerpioneren John McCarthy introducerede termen. Allerede i 1950 stillede Alan Turing spørgsmålet: "Kan maskiner tænke?" – en grundlæggende problemstilling for AI, som søger at efterligne menneskelig intelligens og automatisere komplekse opgaver. Siden århundredeskiftet er AI's militære anvendelser vokset eksplosivt. Vladimir Putin udtalte i 2017, at AI ikke blot ville forme Ruslands fremtid, men hele menneskehedens, og at den, som dominerer denne teknologi, også ville dominere verden. AI-drevne droner spiller allerede en central rolle i nutidens konflikter.

AI har en dobbelt natur: den kan bruges til gode formål som f.eks. robotter, der fungerer som brandbekæmpere på skibe, men også til destruktive formål som autonome droner og våben, der opererer uden menneskelig kontrol, hvilket rejser alvorlige etiske spørgsmål. Spørgsmålet om "etisk design" af AI bliver centralt, når maskiner får myndighed til at tage beslutninger om liv og død uden menneskelig indgriben.

Der er omfattende etiske udfordringer ved brugen af AI i krigsførelse. AI kan forstærke eksisterende bias og diskrimination, hvilket er dokumenteret inden for områder som køn og race. Algoritmer er ikke neutrale; de kan afspejle fordomme, som i militære kontekster kan føre til uretfærdige konsekvenser, eksempelvis ved måludvælgelse eller identifikation af trusler. SkyNET-programmet, afsløret af NSA, er et eksempel på, hvordan automatiserede systemer kan ramme uskyldige mennesker ved fejlklassificering. Ligesom AI kan være sexistisk og racistisk, kan det også reproducere strukturelle uligheder, som forværres gennem militær anvendelse.

Derudover har AI’s militarisering skabt et nyt felt inden for strategisk magt, hvor konkurrencen om overlegenhed inden for algoritmebaserede systemer potentielt kan eskalere konflikter og forandre krigens karakter radikalt. Dette stiller spørgsmål ved eksisterende folkeret og konventioner, der traditionelt regulerer krig. Udviklingen af autonome våben og cyberangreb udfordrer principperne om proportionalitet, ansvar og kontrol.

Kulturelle faktorer bør også indgå i udviklingen af AI-systemer, især i militære sammenhænge. AI bør designes med hensyn til kulturelle forskelle for at undgå misforståelser og uretfærdige handlinger. Et etisk perspektiv kræver, at mennesker bevarer kontrol over dødelige beslutninger, og at teknologien ikke overskrider menneskelig dømmekraft.

Forståelsen af AI i krigsførelse må derfor omfatte en kritisk vurdering af både teknologiske muligheder og de dybe etiske og juridiske konsekvenser. AI’s potentiale for at ændre krigens natur er enormt, men uden klare regler og moralsk ansvar kan vi risikere en fremtid, hvor maskiner uansvarligt får magten til at bestemme over liv og død.

Det er vigtigt at anerkende, at selvom AI tilbyder en effektivisering og nye strategiske muligheder, må dets anvendelse aldrig ske på bekostning af menneskelig etik, retfærdighed og international lovgivning. Teknologien bør ikke blot vurderes på sine militære fordele, men i lige så høj grad på dens konsekvenser for menneskerettigheder og global sikkerhed.

Hvordan adskiller hybridkrig og gråzonekrig sig, og hvad betyder det for krigens etik i en AI-drevet verden?

Begreberne asymmetrisk krigsførelse, hybridkrig og gråzonekrig illustrerer den kompleksitet og dynamik, der kendetegner moderne konflikter. Asymmetrisk krigsførelse, som først blev navngivet i 1991, beskriver kampe mellem parter med vidt forskellige militære kapaciteter, hvor mindre ressourcer kan påføre betydelig skade gennem utraditionelle metoder som geriljakrig og terrorangreb. Cyberangreb er et eksempel på denne asymmetri, hvor små midler kan skabe stor effekt på mål, og i takt med AI’s hurtige udvikling bliver både statslige og ikke-statslige aktører udstyret med stadig mere sofistikerede og alsidige værktøjer.

Hybridkrigen, et koncept først formuleret af Frank G. Hoffman i 2007, indebærer en sammenblanding af konventionelle, irregulære, terrorrelaterede og kriminelle midler, som anvendes simultant og tilpasses i et dynamisk operationsrum. Her kan både statslige og ikke-statslige aktører være involveret i en strategisk symbiose, der udvisker grænserne mellem krig og fred. Hybridkrig kombinerer kinetiske våben med ikke-kinetiske midler såsom AI-drevet propaganda og cyberoperationer, hvor omfanget og målet for destruktionen er udvidet gennem brugen af avanceret teknologi, herunder rum- og AI-embederede våben.

Gråzonekrigen er sværere at definere, men kan forstås som udnyttelsen af det strategiske mellemrum mellem fred og krig til at ændre status quo gennem koercive, men under tærsklen for en traditionel militær respons. Den involverer en række aktiviteter – både militære og ikke-militære, kinetiske og ikke-kinetiske – udført af både stater og irregulære aktører. Gråzoneaktiviteter som økonomisk pres, cyberangreb og valgmanipulation eksemplificerer denne form for konflikt, hvor lav tærskel for åben krigshandling fastholder konflikten i en tilstand af konstant spænding uden direkte krigsdeklaration.

Det etiske fundament for krig, såsom retfærdig krig-teorien med dens principper om legitim årsag, autoritet, proportionalitet og beskyttelse af ikke-kombattanter, udfordres af denne nye karakter af konflikt. Den traditionelle forståelse af krig, som en åbenlys og begrundet kamp mellem stater, står i kontrast til terrorisme, der opfattes som en uforståelig, voldelig og ofte ideologisk motiveret krænkelse af statens monopol på magtanvendelse. I dag er grænserne mellem krig og terror slørede, særligt når terrorister forsøger at tvinge befolkninger til at acceptere ideologier gennem vold, hvilket udfordrer både staters autoritet og det juridiske grundlag for legitim magtanvendelse.

Teknologiske fremskridt som droner og AI-drevne våbensystemer komplicerer yderligere anvendelsen af krigens etik og folkeretten. Mens brugen af sådanne våben kan overholde traditionelle krigsregler under formelle krige, bliver det problematisk i tilfælde som målrettede dronerettelser mod terrorister i suveræne stater uden krigserklæring. Der findes fortsat ingen universel definition af terrorisme, og hvad én stat opfatter som terrorister, kan for en anden være frihedskæmpere, hvilket gør juridisk og etisk vurdering endnu mere kompleks.

Det nuværende internationale humanitære lovværk dækker mange aspekter af moderne konflikt, men krigens karakter ændrer sig hastigt med fremkomsten af AI og hybride taktikker. Selvom der er behov for tilpasninger og supplerende regler – for eksempel i reguleringen af kemiske, biologiske og autonome våben – står de grundlæggende principper for krigens etik fast. Det er afgørende at forstå, at disse etiske rammer stadig udgør det fundament, som moderne krigsførelse må vurderes ud fra, selv i en verden præget af gråzone- og hybridkrig.

Samtidig er det vigtigt at erkende, at teknologiske værktøjer som AI kan forstærke både destruktiv kapacitet og kompleksiteten i beslutningsprocesserne omkring krigsførelse. Der må tages højde for, hvordan automatiserede systemer påvirker ansvarlighed, proportion og risikovurdering i konfliktzoner. Forståelsen af hybrid- og gråzonekrig må derfor ikke blot baseres på de taktiske og strategiske aspekter, men også på et dybtgående etisk og juridisk grundlag, der kan navigere i den uklarhed og mangfoldighed, som moderne krigsskuepladser udgør.

Kan autonome våben overholde krigens love?

Selvom menneskelige soldater kan overholde de grundlæggende principper i krigens love, kan autonome våben ikke opfylde de krav, som international humanitær ret (IHL) stiller. IHL kræver blandt andet overholdelse af principperne om skelnen mellem kombattanter og civile, proportionalitet i brugen af magt og militær nødvendighed i væbnede konflikter. Disse principper forudsætter evnen til moralsk og juridisk vurdering, hvilket autonome systemer, styret af algoritmer uden menneskelig dømmekraft, ikke kan opfylde. Derfor er der en voksende diskussion om behovet for nye internationale regler, der specifikt forbyder udviklingen og anvendelsen af sådanne våben, med en bindende pagt ratificeret af FN’s medlemslande.

Bekæmpelsen af terrorisme har gennem de sidste årtier været præget af vanskeligheder ved at enes om en fælles international definition. Sikkerhedsrådet vedtog efter 11. september-angrebene i 2001 Resolution 1373, der fastslog retningslinjer for fremtidig bekæmpelse af terrorisme, men forblev tavs om en konkret definition af terrorisme på grund af uenighed blandt medlemslandene. FN’s generalforsamling baserer ofte sine tiltag på en 1994-erklæring, som definerer terrorhandlinger som kriminelle handlinger, der har til hensigt at skabe terror blandt civilbefolkningen eller bestemte grupper, og som under ingen omstændigheder kan retfærdiggøres, uanset politiske, ideologiske eller religiøse påskud.

I erkendelse af, at ny teknologi kan udnyttes til terrorformål, holdt FN’s Sikkerhedsråds modterrorudvalg (CTC) i 2022 et særligt møde i Indien, hvor man diskuterede, hvordan teknologiske fremskridt udfordrer den globale terrorbekæmpelse. Det blev fremhævet, hvordan misbrug af kryptovaluta, terrorrekruttering og radikalisering via nye teknologier er stigende trusler. Diskussionerne kulminerede i ’Delhi-erklæringen’, som opfordrer til at modvirke teknologisk misbrug i terrorbekæmpelse.

Den amerikanske ’krig mod terror’ har også skubbet teknologisk udvikling frem, især brugen af droner. Siden den kontroversielle droneoperation i Yemen i 2011, hvor to amerikanske statsborgere blev dræbt uden rettergang, har droner i stigende grad været et middel til at eliminere terrortrusler på afstand. Anvendelsen af droner er imidlertid omdiskuteret, da drab på civile ofte betragtes som overtrædelser af krigens love og potentielle krigsforbrydelser. Amnesty International og andre organisationer har dokumenteret mange tilfælde, hvor droneangreb har medført civile tab i Pakistan, Afghanistan, Yemen og Somalia.

Eksemplet med drabene på Ayman al-Zawahiri i Kabul i 2022 illustrerer både effektiviteten og det etiske dilemma ved brugen af droner. Selvom USA præsenterede drabet som en succesfuld retfærdighedshandling uden collateral damage, blev det fordømt af mange juridiske eksperter og menneskerettighedsforkæmpere som en ulovlig, udenretslig henrettelse. Det rejser spørgsmålet om, hvorvidt sådanne handlinger kan retfærdiggøres ud fra en ’retfærdig krig’-teori og om USA’s dobbelte standard, hvor det påtvinger andre respekt for international ret, men selv agerer uden for samme regler.

Krigens love og bekæmpelsen af terrorisme gennem teknologi står således i et komplekst spændingsfelt, hvor nye våben og metoder udfordrer etablerede normer og principper. Forståelsen af disse problematikker kræver ikke kun kendskab til de juridiske rammer, men også en erkendelse af de etiske konsekvenser og de politiske realiteter, som påvirker global sikkerhed og menneskerettigheder.

Det er væsentligt at erkende, at internationale aftaler og lovgivning ofte halter bagefter teknologiske fremskridt. Samtidig påvirkes disse lovgivninger af forskelligartede nationale interesser og magtbalancer, hvilket komplicerer skabelsen af ensartede og effektive regler. Derfor må læseren forstå, at spørgsmålet om autonome våben og terrorbekæmpelse ikke kun er en teknisk eller juridisk udfordring, men også en dybt politisk og moralsk problemstilling, som kræver bred international dialog og samarbejde for at finde holdbare løsninger.