Die Entwicklung von Künstlicher Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht, insbesondere im privaten Sektor. Unternehmen wie Google, Amazon und Apple haben dabei eine führende Rolle übernommen. Sie konzentrieren sich auf kommerzielle Anwendungen und bieten Technologien, die potenziell auch militärische Zwecke unterstützen können. Die fundamentalen Forschungsergebnisse und Open-Source-Tools, die im Rahmen dieser Entwicklungen entstehen, sind weithin zugänglich, obwohl sie nicht direkt für den militärischen Einsatz konzipiert wurden. Viele dieser Technologien sind jedoch sowohl im zivilen als auch im militärischen Bereich von Bedeutung und lassen sich in beiden Kontexten nutzen.

Die fortschrittlichsten KI-Algorithmen, die potenziell auch im Militär entscheidend sein könnten – etwa zur Identifikation von Feindhardware oder bestimmten Personen in Videoaufnahmen – werden in privaten Unternehmen entwickelt, nicht in militärischen Einrichtungen. Diese Unternehmen konkurrieren intensiv um die besten Talente, bieten lukrative Gehälter und eine Arbeitskultur, die weniger bürokratisch ist als die in staatlichen Institutionen. Diese Dynamik führt dazu, dass die militärische Industrie mit Unternehmen zusammenarbeiten muss, die sich nicht primär als Rüstungsunternehmen sehen. Dies stellt eine der zentralen Herausforderungen dar, da die Rüstungsindustrie aus einer relativ kleinen Zahl spezialisierter Firmen besteht.

Ein weiterer Faktor, der die Integration von KI in militärische Anwendungen erschwert, sind technologische, prozessuale und kulturelle Hürden. Die bestehenden Vorschriften im Militär – etwa in Bezug auf Sicherheit, Leistungskriterien, Beschaffung sowie geistige Eigentums- und Datenrechte – stellen Herausforderungen bei der Einbindung kommerzieller KI-Technologien dar. Die Sicherheitsstandards im zivilen Bereich unterscheiden sich oft erheblich von denen im militärischen Bereich, was die Übertragbarkeit der Technologie erschwert. Auch der Umgang mit Fehlern in komplexen militärischen Umgebungen kann zu unvorhergesehenen Problemen führen, da die Toleranz für Fehler im zivilen Bereich möglicherweise nicht mit den Anforderungen des Militärs kompatibel ist.

Zudem gibt es mehrere nicht-technische Herausforderungen. Unternehmen aus der privaten Tech-Branche könnten sich schwer tun, mit dem Militär zusammenzuarbeiten, da der Beschaffungsprozess für Verteidigungsgüter sehr komplex ist. Ein weiterer Punkt, der Unternehmen abschrecken könnte, sind Bedenken hinsichtlich der Rechte an geistigem Eigentum und der Kontrolle über Daten. Diese Firmen betrachten geistiges Eigentum als ihren wertvollsten Besitz, während das Militär zunehmend darauf drängt, weitreichende Rechte an technischen Daten und Software zu erhalten.

Ein weiteres Hindernis stellt die Notwendigkeit dar, in Forschung und Entwicklung zu investieren. Das Militär muss seine Fähigkeit verbessern, Technologien aus dem zivilen Sektor zu adaptieren und die besten KI-Experten anzuziehen, die oft von privaten Unternehmen deutlich besser entlohnt werden.

Die militärische Nutzung von KI eröffnet jedoch auch zahlreiche Chancen. KI kann die Geschwindigkeit der Entscheidungsfindung erheblich steigern, große Datenmengen effizienter nutzen und die Präzision in der Zielerfassung verbessern. Dies ist besonders in Bereichen wie der Überwachung, Logistik, Cyberabwehr und der Führung von autonomen Fahrzeugen von Bedeutung. Anwendungen wie semi-autonome oder autonome Fahrzeuge, Waffensysteme ohne menschliche Besatzung und die Unterstützung der Entscheidungsfindung durch KI haben das Potenzial, die militärische Leistungsfähigkeit zu revolutionieren. Besonders hervorzuheben ist das Konzept der "Lethal Autonomous Weapon Systems" (LAWS), bei denen KI in Waffensysteme integriert wird, die in der Lage sind, Entscheidungen ohne menschliches Eingreifen zu treffen.

Neben den Vorteilen birgt der Einsatz von KI im Militär jedoch auch erhebliche Risiken. Die Gefahr, dass Entscheidungen zu schnell getroffen werden, könnte die Eskalation von Konflikten begünstigen. KI-Systeme könnten auch Fehler machen, die von Menschen schwieriger zu erkennen sind, wie etwa die Unterscheidung zwischen Kombattanten und Zivilisten oder die korrekte Identifizierung von Bedrohungen. Weitere Bedenken betreffen die Möglichkeit von Automatisierungsfehlern, mangelnder Anpassungsfähigkeit der Systeme sowie das Risiko von Hacking und Spoofing. Zudem könnte der Einsatz von KI in Kriegen zu einer Reduktion der menschlichen Fähigkeiten führen, da immer mehr Aufgaben von Maschinen übernommen werden.

Ein weiterer Aspekt, der im militärischen Kontext berücksichtigt werden muss, ist die Verbesserung der Intelligenz, Überwachung und Aufklärung (ISR). ISR umfasst eine Vielzahl von Technologien, die zusammenarbeiten, um Informationen aus verschiedenen Domänen wie Luft, Raum, See und Cyberraum zu sammeln. Durch den Einsatz von KI können große Datenmengen aus Drohnen und Sensoren in Echtzeit analysiert werden, was die Qualität und Geschwindigkeit der gesammelten Informationen erheblich verbessert. In der Zukunft wird erwartet, dass KI auch dabei helfen wird, die für militärische Operationen nötigen Informationen in kürzerer Zeit zu verarbeiten und auszuwerten, was den Entscheidungsträgern ermöglicht, schneller und präziser zu handeln.

Ein weiteres potenzielles Einsatzgebiet von KI im Militär sind sogenannte Anti-Access/Area-Denial-Umgebungen (A2/AD). In solchen Szenarien müssen militärische Einheiten in der Lage sein, den Zugriff auf bestimmte Gebiete zu verhindern oder zu erschweren. KI kann dabei helfen, diese Zonen zu überwachen und Bedrohungen effizienter zu erkennen, wodurch der militärische Vorteil aufrechterhalten wird.

Die Fortschritte in der KI könnten auch Auswirkungen auf die Art und Weise haben, wie Kriege in Zukunft geführt werden. Ein zentraler Punkt wird sein, dass die Geschwindigkeit, mit der Entscheidungen getroffen und umgesetzt werden, dramatisch zunimmt. Militärische Befehlshaber könnten zunehmend auf Maschinen angewiesen sein, um Informationen zu verarbeiten und entsprechende Gegenmaßnahmen einzuleiten. Die Frage, wie sich das menschliche Element in dieser neuen Form der Kriegsführung verändert, bleibt jedoch offen.

Wie Künstliche Intelligenz und Deepfakes die militärische Entscheidungsfindung beeinflussen

Deepfakes können in vielfältiger Weise eingesetzt werden, etwa um gefälschte Befehle von Militärführern zu erstellen, die sowohl in der Öffentlichkeit als auch unter Militärs Verunsicherung stiften und Konflikten sowie Aufständen eine falsche Legitimität verleihen. Auch wenn solche Strategien häufig scheitern und weiterhin eher selten zum gewünschten Ergebnis führen, bedeutet die Fähigkeit, die Kommunikation und Informationsweitergabe eines Gegners zu beeinflussen, dass Sicherheits- und Geheimdienstbehörden sie zunehmend in verschiedenen Operationen einsetzen werden. Die Möglichkeit, Datenverbindungen, Aufklärungsplattformen oder Truppenverfolgungssysteme zu hacken und zu manipulieren, gibt einem Gegner die Möglichkeit, einen Staat in die Irre zu führen, wodurch laufende Operationen ernsthaft gestört oder sabotiert werden können. Diese Manipulationen erzeugen eine Unsicherheit über die Validität von Berichten, Geheimdienstanalysen oder die Leistung kritischer Systeme. Auch wenn Streitkräfte über Deepfake-Detektoren verfügen, wird es den Führungskräften zunehmend schwerer fallen, die Informationen, die sie erhalten, korrekt zu bewerten. Führungskräfte, die nicht in der Lage sind, zwischen Wahrheit und Fälschung zu unterscheiden, werden ineffektiv kämpfen.

Der Einsatz von Künstlicher Intelligenz (KI) könnte die Auswirkungen von Desinformationskampagnen und anderen Formen der Informationskriegsführung erheblich verstärken und deren Effizienz, Skalierbarkeit und Reichweite drastisch erhöhen. KI spielt bereits eine immer wichtigere Rolle in Kommando- und Kontrollsystemen, indem sie von der Datenerfassung und -analyse bis hin zur Präsentation der Informationen für den Operator reicht. In militärischen Operationen ist es von entscheidender Bedeutung, Informationen schnell zu sammeln und mit Hilfe von KI-Methoden zu kombinieren und zu analysieren. Der Befehlshaber benötigt diese Informationen, um in hochstressigen Situationen rasch fundierte Entscheidungen zu treffen. Doch oft ist das Volumen der Informationen so groß, dass die Gefahr besteht, dass der Befehlshaber überfordert wird. Ein Problem entsteht, wenn diese Informationen nicht klar, präzise und sinnvoll präsentiert werden, sodass der Befehlshaber sie problemlos verstehen kann. KI-basierte Tools sind daher zunehmend von Bedeutung, um die Arbeitslast von Entscheidungsträgern zu reduzieren.

Die Situationsbewertung umfasst die Analyse des operativen Szenarios und möglicher Bedrohungen, um taktische und strategische Ziele zu erreichen. Obwohl Erfahrung und Wissen über den Feind sowie die eigenen Streitkräfte nach wie vor von entscheidender Bedeutung sind, kann KI den ersten Bewertungsprozess durch Datenfusion, Vorverarbeitung der Analyse und klare Strukturierung der Informationen erheblich unterstützen. Das "Common Operational Picture" (COP) ist das zentrale Element der Informationsdarstellung in Kommando- und Kontrollsystemen. Traditionell wurden diese Informationen manuell von einem Operator eingegeben und den autorisierten Nutzern zugänglich gemacht. Heutzutage kommen die Informationen in verschiedenen Formaten von zahlreichen Plattformen, oft mit Redundanzen oder ungelösten Diskrepanzen. Maschinelles Lernen (ML) ermöglicht es, Informationen automatisch auf einer Karte darzustellen, etwa durch die Analyse von Satellitenbildern oder Aufklärungsdrohnenaufnahmen. Dies erlaubt die automatische Erkennung, Analyse und Präsentation von Objekten wie feindlichen Truppen oder kritischer Infrastruktur.

Kommando- und Kontrollsysteme (C2) können eine kritische Unterstützung bieten, wenn wenig Zeit zur Verfügung steht, Kommunikationsverbindungen vom Gegner gekappt wurden oder die Anzahl möglicher Handlungsoptionen so groß ist, dass Menschen diese nicht effektiv analysieren können. Die strategische Bedeutung des Einsatzes von KI auf taktischer und operativer Ebene ist daher nicht zu überschätzen. Trotz dieser Möglichkeiten wird menschliches Urteilsvermögen die Entscheidungsfindung in Kommando- und Kontrollsystemen weiterhin maßgeblich beeinflussen. Die zunehmenden Fähigkeiten und die rasante Entwicklung von KI-basierten Tools ermöglichen es den Menschen jedoch, sich auf Aufgaben zu konzentrieren, die sie weiterhin besser als Maschinen ausführen können, und weniger Zeit mit sekundären Aufgaben zu verbringen.

Die Geschwindigkeit, mit der KI große Datenmengen verarbeitet, kann die Entscheidungsfindung bei der Planung und Durchführung von Operationen erheblich beschleunigen und die Effizienz bei der Truppen- und Waffenführung erhöhen. KI wird so zu einem taktischen und strategischen Werkzeug, um die Entscheidungsfindungsprozesse des Gegners zu überholen – bekannt als der OODA-Zyklus (Observe, Orient, Decide, Act). Es wird angenommen, dass Mensch-Maschine-Teams, die durch KI-technologische Erweiterungen unterstützt werden, schneller handeln werden als ihre Gegner in einem Konflikt und dadurch entscheidende Vorteile erzielen, die zum Sieg führen könnten. KI kann beispielsweise durch Bildkennung bei der Aufklärung, vorausschauende Analytik für Wartung und Routenplanung, das Sammeln wertvoller Open-Source-Informationen über Webcrawler und erhöhte Situationswahrnehmung durch KI-gesteuerte Sensoren zur Entscheidungsfindung im militärischen Bereich beitragen.

Allerdings bringen die heutigen KI-Fähigkeiten auch allgemeine Risiken mit sich, die die Betonung der Geschwindigkeit weniger wünschenswert machen könnten. Die Bedeutung der Geschwindigkeit im OODA-Zyklus ignoriert die Begrenzungen der Komplexität der Mensch-Maschine-Teams und die Notwendigkeit, Qualität und Timing der Entscheidungen zu berücksichtigen. Schnelle Entscheidungen sind nicht zwangsläufig bessere Entscheidungen. Die Entkopplung vom OODA-Zyklus des Gegners könnte sich als weniger hilfreich erweisen. Technologie lässt sich nicht immer exakt in menschliche Entscheidungsprozesse integrieren, weshalb Menschen sich anpassen müssen, um Verzerrungen durch Automatisierung zu vermeiden.

Die strategischen Implikationen eines schnellen Krieges und der Verdichtung von Entscheidungsprozessen werden nicht leicht abzusehen sein. Die Grenze zwischen menschlicher und maschineller Entscheidungsfindung wird zunehmend verschwimmen, was sowohl die Synthese als auch die Verbreitung von KI im militärischen Entscheidungsprozess weiter verstärken wird. Dies führt zu einer wachsenden Bedeutung des Menschen in der gesamten Befehlskette. KI könnte zu einer unbeabsichtigten Eskalation führen. Ein 2020 von der RAND Corporation durchgeführtes Kriegsspiel ergab, dass der weit verbreitete Einsatz von KI und autonomen Systemen mit maschinellen Entscheidungsprozessen, die zu einer schnelleren Eskalation führen, die Abschreckung schwächen und unbeabsichtigte Eskalationen sowie Kriseninstabilität verursachen könnten. KI-gesteuerte Militärs könnten eine Eskalation erheblich beschleunigen, sobald eine Handlungsoption ausgelöst wird. Dies könnte dazu führen, dass Konflikte mit der Geschwindigkeit von Maschinen eskalieren.

In Anbetracht dieser Entwicklungen bleibt die militärische Entscheidungsfindung jedoch weiterhin menschlich geprägt. Entscheidungsprozesse in nichtlinearen, komplexen und unsicheren Umgebungen erfordern weitaus mehr als nur eine Fülle billiger Datensätze und induktive Maschinenlogik. Die Intentionen der Kommandeure, das Recht und die ethische Führung sind entscheidend für die militärische Entscheidungsfindung. Menschen werden weiterhin das zentrale Element im Entscheidungszyklus der absehbaren Zukunft bleiben, und die effektive Integration von menschlichem Urteilsvermögen und Maschinenfunktion mit KI wird entweder einen militärischen Vorteil oder ein Risiko darstellen.

Wie beeinflussen Künstliche Intelligenz und Cyberkrieg die Kriegsführung der Zukunft? Eine Analyse am Beispiel des Ukraine-Russland-Konflikts

Der Ukraine-Russland-Krieg hat das Zusammenspiel von Künstlicher Intelligenz (KI) und Cybersicherheit im modernen Krieg auf dramatische Weise verdeutlicht. Angesichts der massiven Bedeutung des Cyberspace für die Funktionsweise von KI-Systemen ist die Cybersicherheit zu einer unerlässlichen Voraussetzung für den sicheren Einsatz von KI in allen Bereichen – sei es im sozialen, wirtschaftlichen oder militärischen Kontext. Die technologischen Fortschritte in der KI und ihre Integration in militärische Systeme bieten eine Vielzahl von Vorteilen, eröffnen aber auch neue Risiken und Herausforderungen.

Die zunehmende Abhängigkeit von Cyberoperationen hat bereits die aktuellen Konflikte geprägt. Cyberangriffe, wie sie zwischen Russland und der Ukraine stattfinden, demonstrieren, wie Cyberoperationen als Ergänzung zu kinetischen Kriegen fungieren und diese sogar verstärken können. Der Einsatz von Distributed Denial of Service (DDOS)-Attacken, Malware und das Leaken sensibler Informationen sind zum festen Bestandteil des Konflikts geworden. Diese Cyberangriffe mögen zwar nicht die gleiche tödliche Wirkung wie konventionelle Angriffe haben, doch sie verstärken die ohnehin chaotische Lage und haben weitreichende Auswirkungen auf die Infrastruktur, die über den eigentlichen Konflikt hinausgehen. Ein Beispiel hierfür sind die Angriffe auf das Kommunikationssatellitennetzwerk KA-SAT von Viasat, welches nicht nur die Kommunikation in der Ukraine, sondern auch in anderen europäischen Ländern wie Deutschland erheblich beeinträchtigte, indem etwa 2000 Windkraftanlagen vom Netz genommen wurden.

Während die digitalen Dimensionen des Krieges möglicherweise begrenzt erscheinen, sind die Auswirkungen auf die globale Sicherheitslandschaft ernst und können langfristige Veränderungen nach sich ziehen. Die Wahrscheinlichkeit, dass solche Angriffe auf kritische Infrastrukturen wie Stromnetze, Kommunikationssysteme oder Transportnetzwerke auch andere Nationen betreffen, wächst. Dies stellt eine ernsthafte Bedrohung für die Stabilität im internationalen Bereich dar. Die Vernetzung von Nationen und ihre zunehmende Abhängigkeit von digitalen Systemen könnten in Zukunft zu einem erhöhten Risiko für Cyberkrieg führen, was eine neue Dimension der Abschreckungspolitik in den internationalen Beziehungen verlangt.

Ein weiteres bedeutendes Thema, das im Ukraine-Russland-Krieg zur Sprache kommt, ist der Einsatz von autonomen Waffensystemen. Russland setzte in diesem Konflikt Drohnen mit teils autonomen Fähigkeiten ein, wie zum Beispiel die Kamikaze-Drohne Lancet und die KUB-BLA. Diese Drohnen sind in der Lage, Ziele autonom zu identifizieren und anzugreifen. Allerdings stellt sich die Frage, inwieweit diese Drohnen tatsächlich vollständig autonom agierten oder ob sie unter menschlicher Kontrolle standen. In ähnlicher Weise setzte die Ukraine türkische Bayraktar TB2-Drohnen ein, die über gewisse autonome Flugfunktionen und lasergeführte Munition verfügen. Auch die USA lieferten sogenannte Switchblade- und Phoenix-Ghost-Drohnen, die über GPS-Tracking und Objekterkennungssoftware verfügen, die jedoch von einem menschlichen Operator überwacht werden müssen.

Neben den Drohnenoperationen wurde auch der Einsatz von Künstlicher Intelligenz für Überwachungs- und Identifikationsaufgaben dokumentiert. Ein Beispiel dafür ist die Verwendung von Clearview AI durch das ukrainische Verteidigungsministerium. Diese Gesichtserkennungssoftware, die auch bei beschädigten Gesichtern funktioniert, hat das Potenzial, sowohl den Identifikationsprozess von Gefallenen als auch die Überprüfung von Zivilisten an Checkpoints zu erleichtern. Doch auch hier entstehen ethische Bedenken. Die Gefahr einer falschen Identifikation oder ungerechtfertigten Festnahmen könnte durch den Einsatz solcher Technologien auf den Schlachtfeldern noch verstärkt werden. Noch besorgniserregender ist die Möglichkeit, dass diese Technologien zur Steuerung autonomer Waffensysteme genutzt werden könnten, was zu einem gefährlichen Präzedenzfall führen würde, in dem Künstliche Intelligenz mit tödlichen Entscheidungen über Leben und Tod betraut wird.

Diese Entwicklungen werfen tiefgreifende Fragen auf, sowohl aus technischer als auch aus ethischer Sicht. Während die Technologie unbestreitbare Fortschritte macht und das Potenzial hat, die Kriegsführung effizienter und gezielter zu gestalten, bringt sie auch eine Reihe von Unsicherheiten und potenziellen Gefahren mit sich. Die Verwendung von autonomen Waffensystemen, die Fähigkeit von Drohnen, in Echtzeit Ziele zu erkennen und zu eliminieren, und die Rolle von KI in der Identifizierung und Analyse von Gefechtsfeldern sind allesamt Entwicklungen, die den Charakter von Kriegen in der Zukunft tiefgreifend verändern könnten.

Die Ukraine-Russland-Kriegsführung bietet uns einen ersten Blick in eine Zukunft, in der die traditionelle Kriegsführung zunehmend mit digitalen, vernetzten und autonomen Systemen kombiniert wird. Der Schlüssel zu einer stabilen internationalen Sicherheitsarchitektur wird darin liegen, wie diese neuen Technologien reguliert und kontrolliert werden können, um Missbrauch zu verhindern und gleichzeitig den Nutzen für die Sicherheit und Effizienz der Streitkräfte zu maximieren.

Künstliche Intelligenz und ihre Verzerrungen im Krieg: Die ethischen Herausforderungen

In den letzten Jahren hat die Diskussion über den ethischen Einsatz von Künstlicher Intelligenz (KI) in militärischen Kontexten zunehmend an Bedeutung gewonnen. Während viele dieser Debatten sich mit den allgemeinen ethischen Implikationen der Nutzung von KI befassen, wurde ein Thema selten eingehend behandelt: die Verzerrung von Künstlicher Intelligenz. Diese Problematik hat in zivilen Anwendungen viel Aufmerksamkeit erlangt, aber ihre möglichen Auswirkungen in militärischen Szenarien sind noch weitgehend unterforscht.

Künstliche Intelligenz ist längst kein futuristisches Konzept mehr, sondern ein fester Bestandteil des täglichen Lebens geworden. In vielen Bereichen werden KI-gestützte Systeme eingesetzt – von der Gesichtserkennung über die Vorhersage von Verhaltensmustern bis hin zur Verbesserung der Effizienz in der Industrie. Doch was oft übersehen wird, ist, dass diese Systeme nicht in einem Vakuum existieren, sondern menschliche Vorurteile und Ungleichheiten widerspiegeln und sogar verstärken können. Ein Beispiel dafür liefert die Forschung von Joy Buolamwini, einer MIT-Wissenschaftlerin, die in der Netflix-Dokumentation Coded Bias zeigt, wie KI-basierte Gesichtserkennung bei schwarzen Frauen deutlich schlechter funktioniert als bei weißen Männern. Während die Gesichtserkennung bei weißen Männern nur in 1% der Fälle fehlerhaft war, stieg der Fehleranteil bei schwarzen Frauen auf 35%. Solche Verzerrungen sind keine Seltenheit, sondern treten in vielen Bereichen auf, von Bewerbungsverfahren bis hin zu gerichtlichen Entscheidungen.

Der Einfluss dieser Verzerrungen auf die Gesellschaft ist gravierend. Sie tragen nicht nur zur Verstärkung bestehender Ungleichheiten bei, sondern können auch potenziell gefährliche Konsequenzen haben, wenn diese Systeme in Bereichen wie dem militärischen Einsatz zum Tragen kommen. Die Frage, die sich stellt, ist, wie sich solche Verzerrungen auf militärische Operationen auswirken könnten. Angenommen, ein KI-System wird eingesetzt, um Entscheidungen über militärische Einsätze zu treffen, basierend auf Algorithmen, die auf historischen Daten beruhen. Wenn diese Daten rassistische oder geschlechtsspezifische Verzerrungen enthalten, könnte das System unabsichtlich bestimmte Gruppen bevorzugen oder benachteiligen. Im schlimmsten Fall könnte dies zu fehlerhaften oder ungerechten Entscheidungen führen, die das Leben von Menschen in Krisengebieten kosten.

Besonders problematisch wird es, wenn solche KI-Systeme in autonomen Waffensystemen (LAWS) zum Einsatz kommen. In den letzten Jahren wurde die Diskussion über die Kontrolle solcher Systeme zunehmend intensiver. Es stellt sich die Frage, wie sicher es ist, wenn Waffen Entscheidungen treffen, die normalerweise von Menschen getroffen werden sollten – und was passiert, wenn diese Systeme unbewusste Vorurteile in ihren Entscheidungen widerspiegeln. Selbst wenn diese Systeme theoretisch als „neutral“ gelten, spiegeln sie oft die Vorurteile ihrer Entwickler wider. Diejenigen, die diese Systeme entwerfen, kommen in der Regel aus bestimmten sozialen, kulturellen und politischen Kontexten, die ihre eigenen unbewussten Vorurteile mit sich bringen können.

Die NATO hat in ihrer KI-Strategie von 2021 zwar Richtlinien zur verantwortungsvollen Entwicklung von KI-Systemen herausgegeben, aber sie geht nicht konkret darauf ein, wie Verzerrungen in der KI entstehen oder welche Folgen dies im militärischen Bereich haben könnte. Dies stellt eine gefährliche Lücke dar, da die KI im militärischen Bereich unter Umständen Leben auf dem Spiel steht. Die Verzerrung, die in zivilen Anwendungen festgestellt wurde, könnte in den Kriegseinrichtungen noch verstärkt werden, mit potenziell katastrophalen Ergebnissen für die betroffenen Zivilisten und Soldaten.

Es ist wichtig zu betonen, dass Verzerrungen in der KI nicht nur ethnische und geschlechtsspezifische Vorurteile betreffen. Auch andere marginalisierte Gruppen, wie etwa transgeschlechtliche Menschen, sind von den Verzerrungen betroffen. Eine breite Reflexion über die möglichen Auswirkungen dieser Verzerrungen in der KI und ihre Auswirkungen auf militärische Entscheidungen ist entscheidend für die Entwicklung gerechter und verantwortungsvoller Technologien.

Ein weiteres bemerkenswertes Beispiel aus den USA zeigt, wie KI auch in der Strafjustiz falsche Vorhersagen treffen kann. Ein Algorithmus, der dazu verwendet wurde, das Rückfallrisiko von Straftätern zu beurteilen, zeigte deutlich höhere Risikoeinschätzungen für schwarze Individuen im Vergleich zu weißen. Diese Verzerrung verstärkte bestehende Diskriminierungen und trug dazu bei, dass schwarze Menschen ungerechtfertigt benachteiligt wurden. Ähnliche Verzerrungen könnten, wenn sie in militärische Entscheidungen einfließen, zu unverhältnismäßigen Auswirkungen auf bestimmte Bevölkerungsgruppen führen.

Es gibt also eine zunehmende Erkenntnis, dass KI nicht die „neutralen“, objektiven Systeme sind, für die sie oft gehalten werden. Sie sind von den sozialen und politischen Kontexten durchdrungen, in denen sie entwickelt werden. Der Kampf gegen diese Verzerrungen erfordert ein bewusstes und reflektiertes Vorgehen bei der Entwicklung und Implementierung von KI-Systemen. Insbesondere im militärischen Bereich müssen Mechanismen geschaffen werden, um sicherzustellen, dass KI keine unfaire Diskriminierung oder unvorhersehbare Fehler in Entscheidungen einfließen lässt.

Es ist entscheidend, dass diese ethischen Überlegungen nicht nur in zivilen Sektoren, sondern auch im militärischen Bereich ernst genommen werden. Die Diskussion über die Verzerrungen in der KI darf nicht nur auf die zivilen Anwendungen beschränkt bleiben, sondern muss unbedingt auf den Kontext von Kriegen und Konflikten ausgeweitet werden. Wenn die international diskutierten ethischen Leitlinien zur Verwendung von KI in Kriegen nicht auch die Problematik von Verzerrungen berücksichtigen, könnte dies zu gefährlichen Fehlentscheidungen führen, die zu humanitären Katastrophen führen können.