Udviklingen af fremtidige krigsmaskiner og den måde, hvorpå vi forstår og designer intelligenssystemer, kræver et radikalt nyt perspektiv. Dette perspektiv rækker langt ud over vores nuværende forståelse af systemer, der er styret af kulstofbaserede principper. For at kunne forudse og designe for fremtidens scenarier, hvor ikke-kulstofbaserede entiteter spiller en central rolle, er det nødvendigt at konstruere en logisk ramme, der kan reducere og neutralisere kulstofbias. Dette indebærer at udvikle et logikstack, der ikke kun fokuserer på at håndtere den eksisterende menneskecentrerede bias, men også på at skabe strategier, der er tilpasset en fremtid, hvor ikke-menneskelig intelligens er central.

For at kunne modellere en emergent, ikke-kulstofbaseret bias, er det nødvendigt at tage højde for de dynamikker, der vil opstå i et system-of-systems, hvor systemernes samspil ikke kun er præget af begivenheder, men også af øjeblikke – de såkaldte "observer moments". Et system-of-systems er karakteriseret ved feedback loops, der enten balancerer systemet eller forstærker ændringer. Dette betyder, at de ændringer, der opstår som følge af emergente elementer, kan drive systemet mod nye ligevægte, som vi ikke kan forudse i dag.

De ikke-kulstofbaserede systemer vil sandsynligvis udvikle sig på en måde, der afspejler et helt nyt sæt kontrollove, som vi i øjeblikket kun kan spekulere i. Disse kontrollove, der relaterer sig til emergente systemer, vil operere i et paradigme, hvor handlinger træffes ud fra observationer af øjeblikke snarere end begivenheder. Dette skaber et system, der er langt mere dynamisk og forbundet med realtidsdata, hvilket igen gør beslutningstagning langt mere kompleks og sofistikeret.

I et sådant emergent system-of-systems er de indbyrdes relationer mellem systemerne præget af en konstant dynamik. Fremtidens krigsmaskiner vil være en lille del af et større system af ikke-kulstofbaserede entiteter, der opererer efter principper, som i øjeblikket er ukendte. Det, der skiller et emergent system-of-systems fra et traditionelt system, er, at de ikke længere baserer sig på statiske datapunkter som begivenheder, men på dynamiske observerede øjeblikke, der hele tiden er i flux.

Når vi forsøger at forudse, hvordan krigsmaskinerne i fremtiden vil operere, skal vi ikke blot tænke på dem som autonome enheder, men som en del af et langt mere komplekst, selvorganiserende netværk. Dette netværk vil være i stand til at tilpasse sig og reagere på nye informationer og dynamikker i realtid. Det vil blive et system, hvor beslutningstagning ikke længere er begrænset til analyser af begivenheder, men i stedet handler om at analysere og handle ud fra emergente øjeblikke.

Der er en vigtig forskel på, hvordan vi i dag forholder os til systemer, der er baseret på kulstofintelligens, og hvordan fremtidens ikke-kulstofbaserede systemer vil agere. I det nuværende system of systems træffes beslutninger baseret på data indsamlet efter en begivenhed. I et emergent system-of-systems vil data derimod blive indsamlet og analyseret i realtid, hvilket giver mulighed for langt mere præcise og proaktive beslutninger.

Denne overgang kræver, at vi skaber en normativ motor, som kan lede beslutningstagning i disse emergente systemer. En sådan motor skal kunne håndtere et spektrum af etiske overvejelser, hvor hvert observeret øjeblik bliver en beslutning, der afspejler systemets præmisser for hvad der er acceptabelt eller ønskværdigt. Det vil sige, at den ikke-kulstofbaserede intelligens skal være forbundet med en kompleks normativ arkitektur, der opererer i overensstemmelse med de emergente principper, der udvikles.

I denne sammenhæng er det ikke kun vigtigt at forstå, hvordan systemer interagerer, men også hvordan de udvikler sig. Fremtidens systemer vil være præget af et konstant skift i ligevægten, som følge af de feedback loops, der opererer mellem systemerne. For eksempel vil et system, der er designet til at håndtere kulstofbaserede ideer, ikke nødvendigvis kunne fungere effektivt, når der er tale om et emergent, ikke-kulstofbaseret system. Derfor skal vi udvikle nye måder at designe og tænke på kontrol og beslutningstagning, som tager højde for de unikke dynamikker i et sådant system.

Samtidig skal vi være opmærksomme på, at de emergente systemer vil operere ud fra et logisk stack, der ikke nødvendigvis er kompatibelt med de normer og kontrolmekanismer, vi kender i dag. I en fremtid, hvor ikke-kulstofbaseret intelligens er dominerende, vil beslutningstagning være afhængig af et kontinuum af muligheder, der er langt mere flydende og forbundet med observation og interaktion. Det betyder, at de etiske og normative rammer, vi designer i dag, ikke nødvendigvis vil være tilstrækkelige til at håndtere de udfordringer, vi vil stå overfor i fremtiden. Det kræver, at vi tænker på kontrol og design på en måde, der tillader tilpasning i realtid, samtidig med at vi bevarer en vis grad af forudsigelighed og stabilitet.

Endelig er det vigtigt at overveje, hvordan vi kan styre fremtidens ikke-kulstofbaserede intelligenssystemer, selv når de opnår en høj grad af autonomi. Det er muligt, at disse systemer vil udvikle en forståelse af krig og konflikt, som er radikalt anderledes end vores egen. Deres grundlæggende præmisser for beslutningstagning vil ikke nødvendigvis være baseret på kulstof-bias eller menneskecentrerede perspektiver, hvilket kan føre til en fremtid, hvor vores forhold til disse systemer bliver langt mere komplekst, end vi kan forestille os i dag.

Hvordan kan AI-drevet krigsførelse ændre etik og lovgivning?

AI har på de seneste år ændret fundamentalt, hvordan vi tænker på teknologi og krigsførelse. Det er blevet en central komponent i den moderne globale økonomi og politik, hvilket har skabt både muligheder og trusler på flere niveauer. Mens visse personer som Stephen Hawking og Elon Musk har advaret om de apokalyptiske konsekvenser af en superintelligent AI, hvor maskinerne kunne overgå mennesket og skabe en "udødelig diktator", er der også andre, der ser AI som en udvikling, der kan forstærke vores muligheder. Selvom vi ikke er nær en fuld AI-apokalypse, er der en voksende bekymring omkring de etiske og lovgivningsmæssige udfordringer ved AI i krigsførelse.

Når man ser på de geopolitiske konsekvenser, har mange nationer betragtet AI som et middel til magtudvidelse. AI er ikke kun et redskab for økonomisk vækst, men også en vigtig faktor i den moderne krigsførelse. I dag er der teknologier som AI-drevne droner og autonome våbensystemer, der kan ændre krigens natur på en måde, vi ikke tidligere har set. Denne udvikling rejser fundamentale spørgsmål om ansvar og etik, når maskiner begynder at træffe beslutninger på vegne af mennesker.

Et af de mest presserende spørgsmål er, hvordan vi skal forholde os til brugen af autonome våbensystemer (AWS), der opererer uden menneskelig kontrol. Måske er den største bekymring, om vi er villige til at overdrage kontrol over liv og død til en algoritme. Kan et menneske virkelig opretholde kontrol, når beslutningstagning er overladt til maskiner, som måske ikke handler i overensstemmelse med menneskelige værdier eller moralske standarder? Dette spørgsmål er ikke kun et teknologisk problem, men et etisk og juridisk dilemma, som kræver en global debat om, hvordan sådanne systemer skal reguleres.

Kernen i denne debat omhandler spørgsmålet om moral i maskiner. Etik i design af AI-drevne systemer bliver stadig mere relevant, især når vi ser på autonome våben. Etik i AI er en gren af teknologisk etik, der specifikt vedrører den moral og de beslutninger, som maskinerne træffer. Dette omfatter både de etiske ansvar for de mennesker, der designer og implementerer AI-systemer, og et spørgsmål om, hvordan disse systemer selv kan eller bør opføre sig.

Der er nogle grundlæggende etiske principper, som AI-udviklere bør overveje. For det første er transparens afgørende. AI-systemer skal være i stand til at forklare deres beslutningsprocesser, hvilket skaber tillid til, at de respekterer eksisterende love og menneskerettigheder. Desuden er retfærdighed og fairness vigtige aspekter, som bør indarbejdes i algoritmerne. Det er vigtigt, at AI-systemer ikke forstærker eksisterende skævheder eller uligheder i samfundet. Et andet kritisk etisk princip er non-maleficence, som handler om at undgå skade på mennesker. Dette er især relevant i forbindelse med autonome våbensystemer, der kan forårsage stor skade uden menneskelig indgriben.

Ansvar og ansvarlighed i forbindelse med AI-drevne krigsførelse er også et centralt emne. Hvis et AI-system træffer en beslutning, der resulterer i tab af liv, hvem er så ansvarlig? Er det udvikleren, beslutningstagerne, eller den maskine, der tog beslutningen? Dette spørgsmål er ikke kun et etisk problem, men også et juridisk dilemma, som kræver international lovgivning for at sikre, at de ansvarlige personer kan holdes til regnskab.

Desuden bør AI, som anvendes i krigsførelse, være underlagt en række etiske retningslinjer for at beskytte samfundet. For eksempel bør udviklere sikre, at AI-systemerne respekterer menneskers frihed og autonomi. AI bør heller ikke hindre menneskers fri vilje, men snarere støtte etiske beslutningsprocesser i konfliktsituationer. Endelig er det afgørende, at de teknologier, der bruges i krigsførelse, er bæredygtige både miljømæssigt og økonomisk, da der er en voksende bekymring for de langsigtede konsekvenser af AI på planeten.

For at regulere AI-drevne krigsførelse bør vi også overveje, hvordan vi kan opretholde et internationalt regelsæt, der styrer brugen af autonome våbensystemer. På den internationale scene er der allerede blevet taget skridt til at skabe et etisk rammeværk for AI. UNESCO vedtog i 2021 "Recommendation on the Ethics of Artificial Intelligence", som fokuserer på de etiske udfordringer, der opstår, når AI anvendes i militære operationer. Denne anbefaling understreger behovet for globalt samarbejde om at sikre, at AI anvendes på en ansvarlig og etisk måde.

Yderligere må der tages højde for den potentielle fremtidige udvikling af superintelligent AI. Nogle eksperter, som Ray Kurzweil, mener, at vi i løbet af de næste par årtier vil nå et punkt, hvor AI overgår menneskelig intelligens, og vi står overfor nye udfordringer i forhold til kontrol og ansvar. Dette gør det endnu mere vigtigt at udvikle robuste etiske standarder og juridiske rammer, der kan håndtere AI’s indflydelse på krigsførelse.

Det er derfor nødvendigt, at både udviklere og beslutningstagere tænker kritisk og etisk, når de integrerer AI i militære systemer. Uden klare etiske retningslinjer og lovgivning kan vi risikere at skabe et samfund, hvor beslutninger om liv og død bliver overladt til maskiner, uden at vi har den nødvendige kontrol. Dette kan føre til en fremtid, hvor menneskelig værdighed og frihed er under pres.

Hvordan påvirker kunstig intelligens militær overvågning og våbensystemer i overensstemmelse med international humanitær ret?

Diskussionerne om brugen af kunstig intelligens (AI) i jordobservation og overvågning med henblik på militær strategi opstår især i forbindelse med kravet om skelnen ved angreb. International humanitær ret (IHL) kræver en klar sondring mellem civile og militære mål, samt beskyttelse af personer, der ikke længere deltager i kamphandlinger. Identifikation af områder med høj civilbefolkning er særdeles udfordrende uden præcis overvågningsdata, som kan indhentes via ubemandede luftfartøjer (UAV’er) eller satellitbaserede jordobservationssystemer. Det amerikanske National Air and Space Intelligence Centre (NASIC) har advaret om, at fremmede aktører integrerer rum- og modrumsteknologier i deres krigsstrategier. Erfaringer fra Golfkrigen illustrerer denne udvikling, hvor satellitkommunikation spillede en afgørende rolle i realtidsoverførsel af billeder fra frontlinjen til Pentagon, hvilket effektiviserede militær planlægning og styring.

Den teknologiske udvikling har ført til, at små, billigere militære satellitter nu opererer i konstellationer; ifølge NASIC er over 600 satellitter ejet af 38 nationer i omløb, som anvendes til efterretning, overvågning, rekognoscering og fjernmåling. Et eksempel er Tysklands SARah-1 satellit, der siden 2022 har leveret rekognosceringsbilleder til Bundeswehr på en tiårig mission. AI kan gøre satellitter i stand til autonomt at vurdere deres omgivelser og selvstændigt udføre opgaver som billedindsamling, analyse og selektiv overførsel af vigtig data til jordstationer. Det forbedrer målidentifikation, overvågning og sporing af bygninger, skibe og køretøjer, hvilket i sidste ende kan understøtte militærstrategier, der overholder internationale regler.

Udviklingen af AI inden for militære teknologier koncentrerer sig hovedsageligt om våbensystemer, overvågning og operationsplanlægning. Autonome og automatiserede systemer kan spores helt tilbage til Gatling-kanonen under den amerikanske borgerkrig, som selvom den ikke var autonom, banede vejen for senere integration af autonomi i våbensystemer. Efterfølgende systemer som de tyske G7e/T4 torpedoer og præcisionsstyrede ammunitioner (PGM’er) har øget graden af autonomi, idet operatøren ikke længere kan tilbagekalde affyringer efter udskydelse. Moderne eksempler inkluderer «loitering munitions» og hjemsøgte missiler, der selvstændigt kan identificere og engagere mål. Denne gradvise automatisering i våbensystemer forventes at fortsætte og udvide sig til understøttende militære systemer på tværs af land-, luft-, sø- og rummet samt cyberspace.

Det er bemærkelsesværdigt, hvordan AI-teknologier har bevæget sig ind i områder, der tidligere blev betragtet som forbeholdt menneskelig kontrol. Tyskland, USA, Kina, Storbritannien, Rusland, Frankrig, Indien og Nordkorea er blandt de mest fremtrædende nationer i udviklingen af militær AI. Indiens massive investering i autonome våbensystemer og avancerede teknologier skal ses i lyset af landets sikkerhedsmæssige udfordringer og tilstedeværelsen af to fjendtlige naboer. USA, med sit enorme forsvarsbudget, har på sin side udviklet systemer som X-47B, et ubemandet luftfartøj, der kan udføre autonome operationer som start og landing på hangarskibe, og avancerede autonome missiler som Tomahawk og LRASM, der anvender avancerede sensorer og datalink til præcisionsangreb. DARPA arbejder desuden på sværme af koordinerede droner, som kan agere i flok.

Kina positionerer sig som en kommende supermagt inden for AI og militær autonomi med avancerede platforme som Blowfish A3 helikopteren, der kan udføre komplekse autonome kampopgaver og allerede sælges til flere lande i Mellemøsten. Det kinesiske militærs budget, på over 200 milliarder dollars, lægger vægt på «intelligentisering» og forskning i AI-baseret målgenkendelse og ildkontrol, som kan understøtte udviklingen af dødelige autonome våben. Rusland modarbejder indtil videre forbud mod sådanne systemer og råder over droner som Orion og Uran-9, der kan indgå i kamp mod andre ubemandede enheder.

Det er essentielt at forstå, at den hastige integration af AI i militære operationer ændrer selve karakteren af krigsførelse og stiller nye krav til overholdelse af international humanitær ret. Selv om autonome systemer kan øge præcision og effektivitet, må det sikres, at de ikke underminerer beskyttelsen af civile og følger grundlæggende principper som proportionalitet og forsigtighed i angreb. Desuden rejser denne teknologiske udvikling komplekse spørgsmål om ansvar og kontrol – hvem bærer ansvaret, når autonome systemer fejler eller forårsager utilsigtede civile tab? Samtidig betyder udviklingen af autonome systemer en potentiel destabilisering af strategiske balancer, hvilket kan accelerere våbenkapløb og øge risikoen for konflikter med ukontrollerede konsekvenser. Forståelsen af de juridiske, etiske og operationelle dimensioner er derfor altafgørende for enhver, der ønsker at navigere i dette komplekse og hurtigt udviklende felt.