Flere vestlige lande har taget kunstig intelligens (AI) i brug til at overvåge flåder af skibe og fly med henblik på at forudsige vedligeholdelsesbehov. Et eksempel er den amerikanske hær, der med IBM Watson har udviklet skræddersyede vedligeholdelsesplaner for Stryker-køretøjerne baseret på data fra sensorers indsamling. AI anvendes ikke kun til forudsigende vedligeholdelse, men også til optimering af logistik, som når Watson analyserer forsyningskæder for reservedele for at finde mest tidseffektive og omkostningsbesparende løsninger. Den underliggende metode, kaldet predictive maintenance, skaber effektivitetsgevinster ved at skifte fokus fra reaktiv til proaktiv vedligeholdelse.

I cyberspace står både angribere og forsvarere over for en ny æra, hvor AI skærper både offensive og defensive kapaciteter. Hurtigere processorkraft og avanceret maskinlæring gør cyberangreb mere komplekse, hurtige og tilpassede. AI kan afsløre sårbarheder i software langt hurtigere end mennesker og autonomt udnytte dem, hvilket øger effektiviteten af offensive operationer markant. Samtidig gør AI det muligt at udvikle robuste forsvarssystemer, der automatisk kan afværge malware og netværksindtrængen.

På den offensive side bliver cyberangreb mere præcise og målrettede, blandt andet gennem forbedret sprogbehandling, der kan skabe overbevisende spear-phishing. Malware kan mutere til utallige varianter for at undgå detektion, og stabile kommunikationskanaler i det digitale kampfelt øger samtidig angrebsoverfladen. Systemer trænet med maskinlæring kan desuden udsættes for dataforgiftning, hvor træningsdata manipuleres for at forvride AI’ens funktion. Angreb kan også designes til at narre algoritmer til at træffe fejlagtige beslutninger, mens AI-drevne bots kan automatisere netværksangreb og bevare kontrolkanaler, der er svære at lukke ned. En særlig udfordring er manipulation af billeder, hvor subtile ændringer i pixels kan narre AI, uden at mennesker opdager noget unormalt.

På forsvarssiden kan AI hjælpe med hurtigere at opdage angribere inde i netværk, automatisere sårbarhedsopdagelse og forstyrre angreb gennem deceptionsteknikker. Den hurtige udvikling i AI-drevne cybervåben tvinger forsvarsstater til næsten øjeblikkeligt at reagere for at undgå skade, hvilket kan føre til nye former for automatiserede forebyggende forsvarsstrategier og sætte eksisterende juridiske og politiske rammer under pres.

AI øger også omfanget og præcisionen af informationsoperationer. Med avancerede AI-værktøjer kan stater eller andre aktører generere overbevisende tekster og samtaler, der målrettet påvirker befolkningers opfattelser og holdninger. AI analyserer store mængder data om individuelle brugere for at skræddersy budskaber, som kan sprede misinformation i hidtil uset omfang. Syntetiske medier og deepfakes, hvor falske billeder, lyd og video fremstår helt autentiske, udgør en alvorlig trussel mod tilliden til information og kan bruges til at underminere offentlige institutioner eller afpresse enkeltpersoner.

AI muliggør desuden opbygningen af detaljerede digitale adfærdsmønstre, der kombinerer information om køb, kredit, arbejde og onlineaktivitet til profiler, som kan anvendes i målrettede påvirkningskampagner eller afpresning. Den udbredte tilgængelighed af sådanne teknologier til både stater og ikke-statslige aktører betyder, at truslerne er mere tilgængelige og potentielt ødelæggende.

Den voksende spredning af syntetiske medier har skabt en situation, hvor ægte begivenheder i stigende grad kan afvises som falske, hvilket underminerer tillid og skaber en ny form for informationskaos. Med AI’s hastige udvikling og faldende omkostninger til computerkraft vil denne udfordring forværres og gøre det stadigt sværere at skelne sandhed fra manipulation under både fredstid og konflikt.

Det er vigtigt at forstå, at AI i militær sammenhæng ikke kun forandrer hastigheden og omfanget af operationer, men også de grundlæggende dynamikker i både angreb og forsvar. Evnen til at forudsige, opdage og modvirke trusler i realtid kræver ikke blot avanceret teknologi, men også nytenkning inden for strategi, etik og lovgivning. Desuden må læseren være opmærksom på, at menneskelig indsigt og dømmekraft stadig spiller en afgørende rolle, selv i en verden hvor maskiner tager stadig større ansvar for beslutninger. Balancen mellem automatisering og menneskelig kontrol bliver et nøgleelement i den fremtidige sikkerhedsarkitektur.

Endelig bør man anerkende, at AI’s potentiale til både at beskytte og true national sikkerhed afhænger af, hvordan teknologien integreres og reguleres internationalt. Uden koordinerede tiltag og klare retningslinjer risikerer samfund at blive fanget i en kaprustning, hvor hastighed og omfang af AI-drevne angreb og forsvar intensiveres uden kontrol, hvilket kan føre til eskaleringer og utilsigtede konsekvenser.

Hvordan påvirker bias i kunstig intelligens militære konflikter og etik?

Bias i kunstig intelligens (AI) udgør en alvorlig udfordring, ikke kun i civile sammenhænge, men også i militære operationer. Selvom debatten om etisk brug af AI i krigsførelse er voksende, har få diskussioner fokuseret på problematikken ved forudindtagethed i AI-systemer. Dette er påfaldende, eftersom det er veldokumenteret, at AI i civile anvendelser ofte viderefører og forstærker menneskelige fordomme, særligt hvad angår køn og race.

Et belysende eksempel på dette findes i dokumentaren Coded Bias, hvor forskeren Joy Buolamwini demonstrerer, hvordan ansigtsgenkendelsesteknologier har svært ved at identificere hendes ansigt, indtil hun bruger en hvid maske. Statistikker viser, at disse systemer kun fejlagtigt genkender hvide mænd i 1 % af tilfældene, mens fejlagtige genkendelser for sorte kvinder kan være helt op til 35 %. Denne slags skævheder er ikke kun en teknisk fejl, men bærer alvorlige konsekvenser i det civile liv og kan få endnu mere dramatiske følger, når de integreres i militære beslutningsprocesser.

I militære sammenhænge kan bias i AI føre til fejlvurderinger, uretfærdige beslutninger og utilsigtede skader på civile, især marginaliserede grupper. Disse systemer kan ved brug i våben og overvågning forstærke eksisterende uligheder og skabe nye etiske dilemmaer. For eksempel kan algoritmer, som er trænet på historiske data, der allerede er farvet af diskrimination, ubevidst målrette bestemte befolkningsgrupper uforholdsmæssigt. Der er en risiko for, at sådanne AI-systemer kan undergrave principper om retfærdighed og menneskelig kontrol i krigssituationer.

På trods af NATO’s AI-strategi, der anerkender vigtigheden af at håndtere bias, mangler der konkrete retningslinjer for, hvordan bias opstår, og hvordan konsekvenserne kan imødegås i militære anvendelser. Det er essentielt at forstå, at bias ikke blot er en teknisk fejl, men et resultat af sociale og kulturelle præferencer indlejret i data og design. AI-systemers udviklere er ofte præget af deres egen sociale kontekst, hvilket kan afspejles i de systemer, de skaber, og det gælder globalt, ikke kun i USA.

Eksempler fra civile sektorer viser, hvordan bias kan tage form: Amazons algoritme, som udelukkede kvinder fra jobmuligheder, stemmegenkendelse, der fejler hyppigere med kvindelige stemmer, og risikovurderingssoftware i retssystemet, der overrepræsenterer sorte borgere som kriminelle. Disse cases illustrerer, hvordan bias kan føre til strukturel diskrimination, og når tilsvarende systemer anvendes i militære kontekster, kan skaderne blive endnu mere alvorlige og udbredte.

Det er også vigtigt at erkende, at bias ikke kun handler om race og køn, men også om andre marginaliserede grupper, herunder transpersoner og andre underrepræsenterede minoriteter. Manglen på diversitet i både data og blandt dem, der udvikler AI, bidrager til, at disse perspektiver overses, hvilket forstærker systemernes skævheder.

Det kan virke som en teknologisk udfordring at korrigere bias, men det er i høj grad en samfundsmæssig og etisk problemstilling. For at AI kan anvendes ansvarligt i militære operationer, kræves en dybdegående forståelse af, hvordan bias indlejres og hvilke konsekvenser det kan få for menneskerettigheder, lighed og retfærdighed på tværs af kulturelle og nationale grænser. Det fordrer også gennemsigtighed i udviklingen af AI-systemer og omfattende tests i mangfoldige kontekster for at sikre, at de ikke systematisk diskriminerer eller truer civile befolkninger.

At fastholde meningsfuld menneskelig kontrol over AI i militære anvendelser bliver dermed ikke blot et spørgsmål om teknologi, men om etik, ansvar og globalt samarbejde. En bredere debat må inkludere konsekvenserne af bias i AI for at forhindre, at disse systemer utilsigtet bliver redskaber for uretfærdighed og konfliktforværring.