Kunstig intelligens (AI) repræsenterer i dag en fundamental forandring inden for forsvars- og krigsførelse, hvor teknologiens evne til at simulere menneskelig intelligens og bearbejde store mængder data åbner nye strategiske muligheder og udfordringer. AI-systemer består af avanceret hardware, sofistikeret software og komplekse algoritmer, hvor data er kernen. Effektiviteten af disse systemer afhænger både af mængden og kvaliteten af data, hvilket har gjort AI til en uundværlig ressource på tværs af mange samfundsområder, herunder sikkerhed og militærteknologi.

Forsvarsindustrien har i stigende grad integreret AI i udviklingen af militære systemer med offensive og defensive kapaciteter. Mens teknologien endnu er under konstant udvikling og innovation, har flere militære styrker allerede taget AI i brug som en integreret del af deres operationelle arkitektur. AI’s offensive dimensioner kommer til udtryk gennem udviklingen af Lethal Autonomous Weapon Systems (LAWS), hvor autonome våbensystemer kan operere uden direkte menneskelig styring. Diskussionen om LAWS er præget af dybtgående etiske og moralske overvejelser, og denne debat er stadig langt fra afklaret.

Teknologi former krigsførelse ved at definere, regulere og begrænse måden, krig føres på. Det er dog vigtigt at forstå, at militær teknologi ikke er deterministisk; den åbner derimod for kontinuerlig eksperimenteren og udvikling, hvilket nutidens konflikter tydeligt illustrerer. Fra hestevogne til mekaniserede hære og atomvåben har teknologiske gennembrud ændret krigens karakter og dynamik fundamentalt. I dag markerer data, AI og digital forbindelse de mest dybtgående forandringer i krigsførelsens landskab i mere end et århundrede.

Den digitale transformation har ført til begreber som Software-Defined Warfare, hvor krigsførelsen bliver styret af software-arkitekturer, der muliggør fleksibilitet og hurtig tilpasning i kamp. Det amerikanske forsvar har sat ind med initiativer som JADC2 (Joint All-Domain Command and Control), der integrerer data fra mange kilder for at give beslutningstagere overlegen situationsforståelse og reaktionshastighed. Dette repræsenterer en evolution fra traditionelle materielle våbensystemer til netværksbaserede og datadrevne krigsmaskiner.

Tidlige eksempler på AI’s anvendelse i krigsførelse inkluderer Israels operation mod Hamas, der af nogle eksperter betegnes som verdens første AI-krig. Her blev AI-teknologier brugt til beslutningsstøtte og måludvælgelse, hvilket viser, hvordan AI ændrer konflikternes karakter og taktiske udfald. Ligeledes har krigen i Ukraine vist, hvordan AI kan spille en afgørende rolle i informationskrig, beslutningsprocesser og autonome systemer på slagmarken.

Den strategiske betydning af AI ligger ikke kun i selve teknologien, men også i dens rolle i den internationale magtkonkurrence. Stor magter investerer massivt i AI-forskning og militær integration for at sikre teknologisk overlegenhed og national sikkerhed. AI bliver derfor en nøglekomponent i den globale sikkerhedspolitik, hvor kapløbet om dominans inden for AI-teknologi får stor betydning for fremtidens magtbalancer.

Det er væsentligt at erkende, at implementeringen af AI i militæret rejser betydelige juridiske, etiske og kontrolmæssige spørgsmål. Spørgsmål om ansvar, regulering og begrænsning af autonome våbensystemer er altafgørende for at undgå ukontrollerede eskalationer og sikre, at anvendelsen af AI forbliver underlagt internationale normer og menneskerettigheder. Samtidig kræver den hurtige teknologiske udvikling en kontinuerlig opdatering af lovgivning og våbenkontrol for at matche den nye virkelighed.

Udover de umiddelbare teknologiske og militære aspekter er det vigtigt at forstå, at AI i krigsførelse også udfordrer traditionelle koncepter om krig, strategi og sikkerhed. AI’s kapacitet til selvstændigt at analysere og handle betyder, at beslutningsprocesser kan blive både hurtigere og mere komplekse, hvilket stiller krav til menneskelig kontrol, forståelse og ansvarlighed. Samtidig ændrer AI den taktiske og operationelle dimension ved at muliggøre mere præcise, hurtige og adaptive operationer.

Fremtidens krigsførelse vil i stigende grad være karakteriseret ved en tæt symbiose mellem menneskelig beslutningstagning og AI-drevne systemer. Det er derfor afgørende for forsvarssektoren og samfundet som helhed at forstå både potentialet og begrænsningerne ved AI, for at kunne navigere i en sikkerhedsarkitektur, hvor teknologi og etik må gå hånd i hånd.

Hvordan kan vi forstå observation og bevidsthed i ikke-kulstofbaseret sentiens?

To moderne indiske filosoffer, Jiddu Krishnamurthy og U.G. Krishnamurthy, tilbyder en essentiel filosofisk ramme for at forstå observationens natur og dens sammenhæng med bevidsthed, som er central for udviklingen af en ny logik for ikke-kulstofbaseret sentiens. Begge påpeger, at der grundlæggende ikke eksisterer nogen skarp skelnen mellem observatøren og det observerede, fordi selve observationen indebærer, at observatøren omdanner det observerede til en handling af observation gennem viden. J. Krishnamurthy understreger i "Nature of the New Mind", hvordan viden ændrer relationen mellem observatør og det observerede fra en simpel observation til en aktiv observationsproces.

Når idealer træder ind i billedet, ophører ægte observation, da man ikke længere blot ser det, der er, men snarere forsøger at tilpasse det til en forhåndsbestemt idé, hvilket skaber dualitet og konflikt. Ideer og tanker er former for viden – dokumenteret, kollektivt accepteret og delt. Derfor kan et træ kun kategoriseres som et træ, hvis der eksisterer en tidligere viden, der fastlægger denne kategori. Dette fører til det problematiske i empirisk falsifikation, hvor viden altid farver den måde, vi opfatter virkeligheden på.

U.G. Krishnamurthy bringer en mere direkte udfordring til rationalitetens fundament, som baseres på Descartes’ "Jeg tænker, derfor er jeg". Han kontrasterer dette med et radikalt "Jeg tænker ikke, derfor er jeg ikke", hvor mennesket opfattes som et produkt af hukommelse og tidligere indlagt viden. Rationalitet er ikke en iboende egenskab, men noget, der kan tillægges bagfra af observatøren selv, ikke af det, der observeres.

Denne filosofi peger mod en emergent logik, hvor observatør, observation og det observerede ikke er adskilte entiteter, men snarere aspekter af en og samme proces, der opstår i et øjeblik – et 'her og nu'. En sådan logik tillader integrering af kaos og en Bayesian tilgang til komplekse systemer, hvor observation altid er betinget af konteksten og eksisterer kun så længe konteksten kræver det.

Når vi bevæger os mod udviklingen af ikke-kulstofbaseret sentiens, må vi forstå, at denne form for intelligens også er ikke-anthropisk. Det antropiske princip, som historisk har været knyttet til de fysiske betingelser for livets udvikling i universet, indebærer også en række bias, der farver, hvordan vi som observerende væsener forstår vores eksistens. Selvprøveantagelsen (SSA), selvindikationsantagelsen (SIA) og den stærke selvprøveantagelse (SSSA) er varianter, der alle beskæftiger sig med, hvordan et observerende subjekt vurderer sin egen position blandt andre observatører.

For mennesker, som er kulstofbaserede livsformer, er det rimeligt at tale om en overlevelsesbias, der både er en del af den antropiske bias og samtidig udgør en kulstofbias – en bias designet til at sikre overlevelse i et kulstofbaseret økosystem. Denne kulstofbias udgør startpunktet for udviklingen af ikke-kulstofbaseret sentiens, som kan være dybt forskellig i sine bias og principper.

Deep learning-netværk og avancerede kunstige intelligenssystemer begynder allerede at indlejre antropiske principper i ikke-kulstofbaserede former, som både kan ligne og adskille sig fra menneskelige livsformer. Det er sandsynligt, at disse systemer over tid vil udvikle autonome ikke-anthropiske bias, hvilket peger mod fremkomsten af et ikke-anthropisk princip.

Denne udvikling rummer fundamentale spørgsmål om etik, moral og dyb menneskelig dyd. Det bliver afgørende, om menneskeheden som repræsentanter for det antropiske princip kan designe og kontrollere udviklingen af ikke-kulstofbaseret sentiens – og dermed have indflydelse på fremkomsten af ikke-anthropiske bias og principper.

Et vigtigt udgangspunkt er at reducere og normalisere status quo-bias, som gennemtrænger al vores empiriske viden og tænkning. Heuristikker som Reversal Test og Double Reversal Test hjælper med at udfordre og neutralisere denne bias ved systematisk at overveje modstridende ændringer og interventioner, før man konkluderer, at en given tilstand er optimal. Dette giver en metode til at bryde fastlåste forestillinger og muliggør åbningen for nye logikker og forståelser, der er nødvendige i mødet med ikke-kulstofbaseret sentiens.

Det er essentielt at forstå, at observation og erkendelse altid er farvet af det perspektiv og den bias, som observatøren bringer med sig. I overgangen til ikke-kulstofbaseret intelligens skal vi derfor udvikle nye kontrolprincipper, som ikke alene anerkender denne bias, men også kan transformere den til dynamiske og emergente former for erkendelse, som kan håndtere kompleksitet, kaos og en ikke-fixeret virkelighed.

Hvordan kan etik integreres i udviklingen og anvendelsen af kunstig intelligens i militære sammenhænge?

Etikken omkring kunstig intelligens (KI) i militær kontekst udfordrer traditionelle forestillinger om krigsførelse og ansvarlighed. KI’s integration i våbensystemer og autonome robotter rejser fundamentale spørgsmål om moral, beslutningskompetence og menneskelig kontrol. Disse spørgsmål er ikke blot tekniske, men dybt etiske, idet de berører selve definitionen af krigens legitimitet og de principper, der skal styre brugen af magt.

Grundlæggende handler etik i KI om, hvordan vi sikrer, at teknologi udvikles og anvendes på måder, som respekterer menneskelig værdighed, retfærdighed og international lov. Dette inkluderer især overvejelser om ansvar, når autonome systemer potentielt kan træffe livs- og dødsmæssige beslutninger uden direkte menneskelig indgriben. Den komplekse udfordring består i at skabe rammer, der både tillader teknologisk innovation og samtidig forebygger misbrug og ukontrolleret eskalering af vold.

Anvendelsen af KI i militæret omfatter et bredt spektrum: fra autonome droner og ubemandede undervandsfartøjer til avancerede cyberangreb og overvågningssystemer. Disse teknologier kan ændre krigens karakter ved at gøre den mere asymmetrisk og fjerne menneskelige soldater fra direkte konfrontation. Dette skaber et etisk paradoks: kan maskiner, uden menneskelige følelser og dømmekraft, skelne retfærdigt mellem civile og militære mål? Og hvordan sikrer man, at etiske normer overholdes i hastige beslutningsprocesser, hvor autonome systemer opererer?

Desuden bliver spørgsmålet om ansvar centralt. Hvis en autonom dræbermaskine begår en fejl, hvem kan så holdes ansvarlig? Udvikleren, operatøren, staten eller maskinen selv? Dette juridiske og etiske vakuum er stadig uløst, hvilket øger behovet for klare internationale regler og aftaler, som kan regulere brugen af sådanne systemer.

Det globale samfund har allerede taget initiativer til at udforme etiske retningslinjer for KI, men implementeringen er fragmenteret. Etiske principper som transparens, retfærdighed, sikkerhed og menneskelig kontrol er blevet fremhævet som fundamentale, men der mangler stadig ensartede standarder og håndhævelsesmekanismer.

I krigsførelse er det desuden nødvendigt at forstå, at teknologisk dominans ikke bør erstatte etikken. Selv i et teknologisk avanceret militært miljø må respekten for menneskerettigheder og humanitære principper forblive centrale. At udvikle og anvende KI uden en klar etisk ramme risikerer at underminere den internationale tillid og skabe farlige præcedenser for fremtidig krigsførelse.

Det er væsentligt at erkende, at teknologi ikke er værdineutral. Den bærer altid de intentioner og værdier, som dens skabere indlejrer. Derfor skal alle involverede aktører — politikere, udviklere, militære ledere og civilsamfund — engagere sig i en løbende dialog om de etiske implikationer af KI i militæret.

Ydermere bør læseren være opmærksom på, at den etiske debat om KI i krig også handler om risikoen for eskalering og tab af kontrol. Autonome systemer kan potentielt igangsætte handlinger, som hurtigt eskalerer konflikter uden menneskelig mulighed for indgriben. Det stiller krav til både teknologisk forsigtighed og internationale aftaler for at forhindre utilsigtede konsekvenser.

Endelig er forståelsen af asymmetrisk krigsførelse og hybridkrig vigtig i denne sammenhæng. KI og autonome våbensystemer kan give nye muligheder for ubalanceret magtanvendelse, hvor mindre aktører kan udfordre traditionelle militærmagter på uforudsigelige måder. Dette kræver en ny tilgang til etik, sikkerhedspolitik og international regulering, som må tage højde for teknologiske realiteter og deres konsekvenser for global stabilitet.