I nutidens komplekse og hastigt foranderlige operationsmiljøer kan presset for hurtige beslutninger undergrave den kritiske rolle, som ‘mission command’ spiller. Mission command er et decentraliseret, lateralt og tovejskommunikationssystem mellem strategiske ledere og taktiske enheder, hvor menneskelig intuition, dømmekraft og fleksibilitet er centrale elementer. Når AI bruges som supplement til beslutningstagning, risikerer man, at den menneskelige ‘geni’ i mission command forsvinder netop i de situationer, hvor den er mest nødvendig. Kommandanter må stadig være i stand til at navigere i de utilsigtede konsekvenser, organisatoriske friktioner og strategiske overraskelser, som AI ikke kan forudse. Koncepterne tid og hastighed er afgørende, men det er vigtigt ikke at overvurdere værdien af hurtigere beslutningsprocesser, da den faktiske tidsramme ofte styres af logistiske faktorer såsom flytning af materiel eller bevægelse af ammunition.

Semi-autonome og autonome våbensystemer og køretøjer tilbyder præstationer og beslutningshastigheder, der overgår menneskelige evner, og de kan potentielt mindske utilsigtede engagementer, civile tab og collateral skade. Samtidig muliggør de detaljeret kontrol og audit af beslutninger truffet af operatører og kommandokæder. Disse systemer indgår allerede i amerikanske militærenheder i form af ubemandede luftfartøjer, køretøjer og skibe, hvor autonome våbensystemer kan vælge og engagere mål uden menneskelig indblanding, men inden for foruddefinerede parametre.

De militære fordele ved sådanne systemer er mange: de multiplicerer styrkens effektivitet, reducerer behovet for soldater i farlige missioner og kan operere i områder, der tidligere var utilgængelige. De kan udføre monotone, beskidte eller farlige opgaver uden den følelsesmæssige belastning, som mennesker udsættes for. Uden emotionelle påvirkninger kan systemerne bearbejde store mængder sensorisk data objektivt og hurtigt. De kan endda operere i tilfælde, hvor kommunikationsforbindelser er afbrudt, hvilket gør dem til værdifulde aktiver i moderne krigsførelse.

Men disse fordele kommer med store etiske og operationelle udfordringer. Autonome systemer mangler stadig den nødvendige præcision i målidentifikation og kontekstforståelse til at træffe sikre beslutninger om brug af magt. Det udgør en risiko for utilsigtet skade på civile og overtrædelse af krigens grundlæggende princip om distinktion mellem kombattanter og civile. Ansvarligheden ved anvendelsen af sådanne systemer er også problematisk, da internationale humanitære love kræver, at det altid skal kunne fastslås, hvem der er ansvarlig for civile tab. Menneskelig dømmekraft skal derfor altid indgå i beslutninger om at anvende dødelig magt.

Den nødvendige grad af menneskelig involvering varierer efter situationens tidskritikalitet og våbensystemernes karakter. Det er staters ansvar at sikre, at der findes klare processer, hvor menneskelig kontrol og ansvar fastholdes, selv når AI-baserede og autonome systemer anvendes.

Lethale autonome våbensystemer (LAWS) kan identificere, engagere og angribe mål uafhængigt ved hjælp af algoritmer og sensorer, også i miljøer med begrænset kommunikation. Selvom udviklingen af sådanne systemer endnu ikke er forbudt, har flere lande fremsat krav om forbud eller regulering på grund af etiske betænkeligheder. USA har implementeret retningslinjer, der skal sikre overholdelse af krigens love og bevare menneskelig kontrol.

Der er betydelige operationelle risici forbundet med LAWS, herunder hacking, manipulation, miljøpåvirkninger og tekniske fejl. Disse risici forstærkes, når menneskelig indgriben ikke længere er mulig, hvilket kan føre til alvorlige konsekvenser såsom venstrefratricide eller civile tab.

AI og digitale teknologier er derfor både en kilde til muligheder og udfordringer i forsvar og sikkerhed. De kan forbedre funktioner betydeligt, men giver også nye muligheder for kriminelle og terrorister, hvilket kræver en omhyggelig og etisk tilgang til integrationen af sådanne systemer i militære operationer.

Det er vigtigt at forstå, at teknologi ikke alene kan erstatte den menneskelige faktor i militære beslutninger. Kommandørers intuition, vurderingsevne og etiske dømmekraft er uundværlige i balancen mellem effektivitet, kontrol og humanitære hensyn. Endvidere bør læseren være opmærksom på, at fremtidens krigsførelse vil stille krav om nye former for lederskab, hvor samspillet mellem menneske og maskine er centralt. Endelig må der konstant føres international dialog og udvikles juridiske rammer, der sikrer ansvarlig anvendelse af autonome våbensystemer og undgår uforudsete humanitære konsekvenser.

Hvordan påvirker autonome teknologier militære beslutningsprocesser og etik?

Det militære system står over for en fundamental transformation, hvor autonome teknologier indføres for at lette byrden på menneskelige analytikere og forbedre beslutningsprocesserne. Kommandoledere og Pentagon vurderer, at manuel intelligensbehandling ofte ikke er den bedste anvendelse af analytikernes tid, hvilket har ført til implementeringen af autonome løsninger til at understøtte indsamling, vurdering og anvendelse af efterretninger. Disse teknologier tilbyder ikke kun effektivitetsgevinster, men også muligheden for etisk forbedret praksis ved at give øget indsigt i collateral skade, hvilket kan beskytte civile liv og infrastruktur mere effektivt.

Den øgede præcision i måludvælgelsen, som autonom teknologi muliggør, giver en dybere differentiering mellem militære og civile mål og bidrager til en mere ansvarlig anvendelse af magt. Derudover muliggør teknologien en mere detaljeret overvågning af efterlevelsen af internationale normer, såsom reglerne for engagement og international humanitær ret, hvilket potentielt kan understøtte skridt mod politiske løsninger efter væbnede konflikter.

Samtidig med de etiske fordele følger betydelige risici. Systemernes indbyggede fejl, mulige manipulationer eller angreb kan føre til falske vurderinger, der truer beslutningernes validitet. Desuden ændrer autonome teknologier menneskets rolle i beslutningsprocessen markant. Menneskelige aktører mister i visse tilfælde kontrol og ansvar, hvilket kan resultere i en uacceptabel grad af fraværende menneskelig kontrol, hvis ikke der etableres solide rammer for samspillet mellem menneske og maskine. Bevarelsen af menneskelig kontrol er således betinget af, hvorvidt der skabes et effektivt system, hvor teknologien supplerer men ikke erstatter menneskets dømmekraft.

Psykologisk forskning viser, at de forventede fordele ved automatisering, såsom øget effektivitet og lavere arbejdsbyrde, kan opvejes af menneskelige præstationsomkostninger forårsaget af fejlbrug eller utilstrækkelig træning i brugen af disse systemer. En kritisk forudsætning for forsvarlig beslutningstagning er, at beslutningstageren er bevidst om sine egne kognitive begrænsninger, mulige bias og kan vurdere informationskildernes pålidelighed med et kritisk blik. I denne sammenhæng opstår en særlig risiko for, at beslutningstagere overbetoner den automatiserede støtte og tillægger den større autoritet end andre rådgivningskilder – et fænomen kendt som automation bias.

Diskussionen om autonome dødelige våbensystemer (LAWS) har til tider overskygget de mere presserende udfordringer ved brugen af autonom teknologi i beslutningsstøtte, hvor etiske, tekniske og operationelle problemstillinger fortsat kræver grundig opmærksomhed. Autonome teknologier i militære sammenhænge møder flere centrale problemer, som alle nødvendiggør bevidsthed og modforanstaltninger i udvikling, træning og operation.

Problemet med overtilpasning (overfitting) betyder, at algoritmer trænet på data fra tidligere konflikter risikerer at fejlvurdere nutidige situationer, hvilket kan føre til farlige fejl som at identificere civile som fjender. Klassifikationsproblemet gør sig gældende, når algoritmer organiserer objekter i kategorier uden at tage højde for de mest moralsk relevante forskelle, som for eksempel at skelne mellem en medic og en fjende i kampens hede. Informationsmætning er et yderligere problem, hvor mængden af tilgængelige data overstiger menneskets kognitive kapacitet, hvilket har været en væsentlig årsag til, at automatisering er blevet nødvendig i militær efterretning.

Det er vigtigt at forstå, at teknologiske løsninger ikke er neutrale redskaber, men integrerede dele af komplekse beslutningsprocesser, hvor design, anvendelse og menneskelig træning er afgørende for resultatet. Teknologierne kan hverken erstatte eller eliminere menneskets ansvar. Effektiv integration kræver en grundig erkendelse af både muligheder og begrænsninger, herunder nødvendigheden af at opretholde en kritisk og reflekteret menneskelig dømmekraft ved siden af avancerede AI-systemer.

Det er derfor altafgørende, at beslutningstagere ikke blot overlader sig til systemernes automatiske anbefalinger, men bevarer en aktiv rolle i vurderingen af mål og operationer. En dybere forståelse af hvordan algoritmiske fejl kan opstå og hvordan bias kan forvride beslutninger, er nødvendig for at sikre, at teknologien anvendes på en måde, der både er effektiv og etisk forsvarlig. Endvidere bør træningsprogrammer og operationelle protokoller være designet til at fremme kritisk brug af automatiserede værktøjer og undgå blind tillid til systemer, som i sidste ende er menneskeskabte og dermed fejlagtige.

Dette perspektiv rækker ud over militære anvendelser og berører grundlæggende spørgsmål om ansvar, kontrol og etik i en tid, hvor teknologiske fremskridt radikalt ændrer den måde, vi træffer beslutninger på under pres. Kun gennem vedvarende refleksion, forskning og opmærksomhed på de iboende faldgruber kan anvendelsen af autonome teknologier i militæret ske på en måde, der både styrker operationernes effektivitet og respekten for menneskeliv og internationale normer.

Hvordan styres og anvendes militære robotter og droner i moderne konflikter?

Indiske militære styrker råder over et bredt spektrum af robotter, herunder hjulbårne, firbenede og seksbenede robotter samt vægklatrende robotter, der kan operere i forskellige terræner. Disse robotter er under udvikling for at blive missionsegnede og kan blandt andet identificere og overvåge fjendtlige personer via integrerede kameraer, der sammenligner indsamlede billeder med databaser over kendte oprørere. Ved manglende match sendes billedet videre til hovedbasen til opbevaring og eventuel fremtidig brug. Hvis der derimod findes en genkendelse, alarmere systemet lokale sikkerhedsenheder og menneskelige teams i nærheden.

Et konkret eksempel er de jordbaserede robotter, som den indiske hær anvender til at patruljere op til 20–30 km fra basen og benytte metal-detektorer til at lokalisere bomber. Bombefjernelsesrobotter kan fjerne sprængstoffer på op til 20 kg, mens operatøren i kontrolrummet overvåger billedstrømme fra trådløse kameraer monteret på robotten. Den multipurpose Daksh UGV (Unmanned Ground Vehicle) anvendes til kontraterror- og oprørsbekæmpelsesopgaver, hvor den kan opdage indtrængende, giftige gasser og sprængstoffer. Den er udstyret med mikrofoner, sensorer og kan både styres manuelt og automatisk via ultralydssensorer. Kommunikation med robotten sker også via DTMF-dekoder, der tillader fjernstyring via mobiltelefon. For at forlænge driftstiden arbejder DRDO (Defence Research and Development Organisation) på at integrere solpaneler sammen med batterier.

Udover jordrobotter udvikles der også sværme af mikrodroner til anti-terroroperationer, som kan udføre både dødelige og ikke-dødelige opgaver såsom overvågning, rekognoscering og sporing. Disse droner forventes at kunne kommunikere indbyrdes og med menneskelige enheder på land og til søs, hvilket kræver avanceret software for rækkevidde, udholdenhed og hastighed. Ikke-statslige aktører i Sydasien har allerede adgang til droner, enten ved at samle dem af markedskomponenter eller ved import fra lande som Kina og Pakistan. Disse droner kan styres via internetforbindelser og GSM-SIM-kort fra computere eller smartphones, og markedet for droner i Indien er stort og relativt ureguleret.

Specifikt har oprørsgrupper såsom Maoisterne anvendt droner til indhentning af efterretninger mod paramilitære baser, og droner har jævnligt fløjet over militære installationer i Kashmir. Den offentlige anerkendelse af faren ved droner i hænderne på ikke-statslige aktører understreger den stigende bekymring i Indien. Myndighederne antager, at Pakistan forsyner jihadi-grupper med droner, blandt andet gennem kinesiske og tyrkiske leverancer, hvilket har medført intensiveret udvikling af indiske modforanstaltninger.

DRDO arbejder på “Swadeshi”-teknologi til anti-drone forsvar, i tråd med den nationale selvforsyningspolitik Atmanirbhar Bharat, der prioriterer hjemmelavede løsninger fremfor import. Disse systemer inkluderer Directed Energy Weapons (DEWs), der anvender laser- og mikrobølgeteknologi til at neutralisere fjendtlige droner. Ved hjælp af elektro-optiske lasere og radarer spores og forstyrres fjendens kommunikation eller dronerne destrueres direkte. DRDO har allerede udviklet et mobil anti-UAV lasersystem med en rækkevidde på 1 km og planlægger at øge rækkevidden og gøre systemet lettere at deployere. Særligt lufthavne forventes at blive beskyttet mod mulige droneangreb ved hjælp af disse teknologier.

Indiens udvikling af avancerede droner går dog langsommere end ønsket, delvist på grund af DRDO's dobbeltrolle som både leverandør og evaluator, hvilket ifølge eksperter har svækket ansvarligheden og forsinket indførelsen af topmoderne militært udstyr.

Forholdet mellem menneske og maskine i militær sammenhæng er komplekst og til tider problematisk, idet kontrol og kommando over autonome systemer kræver en ny tilgang til ledelse. Kommando i moderne krigsførelse omfatter ikke blot styring, men også kommunikation, efterretning, overvågning og rekognoscering — ofte omtalt under akronymer som C3I eller C4ISR. I det 21. århundrede er kommandoen dybt integreret med computernetværk, og kampen på fremtidens digitale slagmark vil afhænge af den side, der formår at udnytte informationsteknologi bedst. Automatisering og digitalisering ændrer grundlæggende militære strategier, hvor evnen til effektivt at styre og integrere robotter og droner bliver altafgørende.

Det er vigtigt at forstå, at denne teknologiske udvikling ikke blot handler om avanceret udstyr, men om et paradigmeskifte i krigsførelse, hvor information og kontrol udgør selve rygraden i militære operationer. Samtidig kræver integrationen af robotter og droner i militære styrker også en grundig overvejelse af de etiske, taktiske og strategiske implikationer ved at overlade livsvigtige beslutninger til autonome systemer. Endvidere bør læseren være opmærksom på, at selvom teknologien kan øge effektiviteten og mindske risikoen for egne tab, så skaber den også nye sårbarheder, som modstandere kan udnytte – eksempelvis gennem hacking eller elektronisk krigsførelse. Den fortsatte udvikling og anvendelse af autonome våbensystemer stiller således store krav til både teknisk ekspertise, lovgivning og internationalt samarbejde.