Die Frage, wie sich Bias (Vorurteile) in künstlicher Intelligenz (KI) manifestiert und wie dieser Bias verringert werden kann, ist von entscheidender Bedeutung, um den verantwortungsvollen Einsatz dieser Technologien zu gewährleisten. Ein zentraler Aspekt bei der Entstehung von Bias in KI ist die mangelnde Diversität im Bereich der KI-Entwicklung. So zeigen aktuelle Zahlen, dass 80 % der KI-Professoren Männer sind, wobei Frauen nur 15 % der KI-Forscher bei Facebook und 10 % bei Google ausmachen. Bei schwarzen Arbeitern sinkt dieser Anteil auf 4 % bei Facebook und Microsoft und auf 2,5 % bei Google. Die Frage, inwieweit dieser Mangel an Diversität eine wesentliche Ursache für den Bias in der KI darstellt, ist zwar noch nicht abschließend geklärt, jedoch gibt es Experten, die der Meinung sind, dass dies ein entscheidender Faktor ist.
Beispiele aus der Praxis zeigen, wie diese fehlende Diversität zu verzerrten KI-Systemen führen kann. Aber auch andere Faktoren tragen zur Entstehung von Bias bei, die sowohl auf die Entwickler selbst als auch auf die Daten zurückzuführen sind, mit denen KI-Systeme trainiert werden. Diese beiden Aspekte werden im Folgenden genauer untersucht.
Bias bei den Entwicklern
In ihrem Buch Unsichtbare Frauen: Datenbias in einer Welt, die für Männer gemacht ist zeigt Criado Perez anhand zahlreicher Beispiele auf, wie Produkte in verschiedenen Bereichen von Männern entwickelt werden und dabei oft unbewusst Männer als die Norm voraussetzen. Dadurch werden die Bedürfnisse und Perspektiven von Frauen häufig nicht berücksichtigt. Ein harmloses Beispiel hierfür ist die Gestaltung eines iPhones, das für die durchschnittliche Handgröße eines Mannes entwickelt wurde, ohne die Bedürfnisse von Frauen zu bedenken. Ein gravierenderes Beispiel ist ein Haussicherheitssystem, das keine Vorkehrungen gegen häusliche Gewalt trifft, obwohl dies eine der häufigsten Bedrohungen für die Sicherheit von Haushalten ist.
Ein weiteres Beispiel für Bias, das von den Entwicklern selbst ausgeht, sind die Sprachassistenten Alexa von Amazon, Cortana von Microsoft und Siri von Apple. Diese Programme haben nicht nur weibliche Namen, sondern kommen auch standardmäßig mit weiblichen Stimmen. Ein UN-Bericht zum Thema KI und Geschlechterbias zeigte, dass diese Sprachassistenten nicht nur den Bias der Entwickler widerspiegeln, sondern auch das gesellschaftliche Bild der Frau als untergeordnete Assistenzfigur verstärken. Es ist wichtig zu betonen, dass diese Biases größtenteils unbeabsichtigt sind. Männer haben diese Sprachassistenten nicht geschaffen, um die Vorstellung zu verbreiten, dass Frauen lediglich als Assistentinnen dienen, sondern es spiegelt vielmehr den unbewussten Bias der Entwickler wider, der ihre Vorstellung von der besten Art und Weise, wie Befehle erteilt werden sollten, prägt.
Bias in den Daten
Die Art und Weise, wie KI durch Daten beeinflusst wird, ist ebenfalls ein zentraler Punkt. Eines der größten Probleme ist, dass viele KI-Systeme mit Datensätzen trainiert werden, die entweder überrepräsentativ oder unterrepräsentativ für bestimmte Gruppen sind. Beispielsweise werden viele moderne maschinelle Lernmethoden mit großen, kostenlosen Datensätzen aus dem Internet trainiert, wie Wikipedia, Google Images oder ImageNet. Diese Datensätze sind jedoch nicht gleichmäßig in Bezug auf die gesellschaftliche Diversität vertreten. Ein Beispiel hierfür ist Amazons Gesichtserkennungssoftware, die nur 1 % der Gesichter weißer Männer falsch erkannte, aber 35 % der Gesichter schwarzer Frauen. Ebenso ist die Spracherkennung häufig weniger präzise bei Frauenstimmen, da Datensätze wie der Linguistic Data Consortium zu zwei Dritteln aus Männerstimmen bestehen.
Die Daten, auf denen KI-Systeme basieren, spiegeln oft historische und soziale Ungleichheiten wider. Ein weiteres Beispiel ist das Rekrutierungsprogramm von Amazon, das bei der Auswahl von Bewerbern auf historische Daten zurückgriff, die vor allem Männer beschäftigten, und daher bevorzugt Männer auswählte und Frauen systematisch ausschloss. Ein weiteres Beispiel ist ein Algorithmus in den USA, der das Rückfallrisiko von verurteilten Straftätern bewertete und dabei schwarze Angeklagte mit doppelt so hoher Wahrscheinlichkeit als zukünftige Straftäter kennzeichnete wie weiße Angeklagte. Auch hier lag der Bias nicht nur in den Daten, sondern auch in der Art und Weise, wie diese Daten ausgewählt wurden, da bestimmte Merkmale historisch gesehen überproportional bei schwarzen Amerikanern vertreten sind.
Es ist wichtig zu erkennen, dass nicht nur die Daten, sondern auch die Art und Weise, wie Daten in unserer Gesellschaft gesammelt werden, voreingenommen sein kann. Ein Beispiel hierfür ist die Erhebung von Daten zu Müttersterblichkeitsraten während der Schwangerschaft. In den USA gab es bis vor kurzem nur wenig Daten zu Müttersterblichkeit, obwohl sich nach Untersuchungen herausstellte, dass Frauen of Color dreimal bis viermal häufiger als weiße Frauen während der Schwangerschaft starben. Solche Daten sind von entscheidender Bedeutung, wenn KI-Systeme zunehmend in unserem Alltag verwendet werden, da sie als Grundlage für Entscheidungen dienen können.
Verstärkung von Bias durch KI
KI hat nicht nur das Potenzial, bestehende Vorurteile und soziale Ungleichheiten zu verstärken, sondern sie kann diese auch weiter ausbauen. Ein Beispiel hierfür ist der Einsatz von KI durch die Polizei in Los Angeles zur Unterstützung der Kriminalitätsbekämpfung. KI-Systeme, die auf historischen Daten basieren, die bereits Bias enthalten, sagen voraus, welche Gebiete besonders von Kriminalität betroffen sind. Dies führt zu verstärkter Überwachung und Policing in diesen Gebieten und verstärkt die bestehenden rassistischen Vorurteile. Auf diese Weise kann KI Bias nicht nur verstärken, sondern auch eine Rückkopplungsschleife erzeugen, in der der Bias sich selbst weiter aufbaut.
Ein weiteres Beispiel ist die häufige Verwendung von maskulinen Pronomen in Übersetzungsprogrammen wie Google Translate. Diese maskulinen Pronomen werden zunehmend im Internet verwendet, was den bestehenden Bias weiter verstärkt.
Bias in militärischen Anwendungen von KI
Der Einsatz von KI in militärischen Anwendungen, wie etwa in der Drohnenkriegsführung oder der Cybersicherheit, wirft ebenfalls ethische Fragestellungen auf, die durch den Bias in KI-Systemen weiter verkompliziert werden. Obwohl es bereits eine umfangreiche Literatur gibt, die sich mit den ethischen Herausforderungen des Einsatzes von KI im Krieg beschäftigt, wurde bisher wenig Augenmerk auf die spezifische Problematik des Bias in diesen Kontexten gelegt. KI-Systeme, die auf voreingenommenen Daten basieren, können Entscheidungen treffen, die den Krieg noch ungerechter und verzerrter machen, was sowohl physische als auch digitale Kriegsführung betrifft. Die ethischen Dilemmata, die durch diesen Bias entstehen, müssen dringend adressiert werden.
Welche Auswirkungen hat Bias in der Künstlichen Intelligenz auf den Einsatz in Kriegsführung und Militär?
Die erste Herausforderung im Zusammenhang mit Bias in der Künstlichen Intelligenz (KI) und ihrer Nutzung in der Kriegsführung betrifft die Frage, wie Bedrohungsanalysen erstellt und darauf reagiert wird. Der Prozess der Erstellung algorithmischer Bedrohungsbewertungen umfasst die Auswahl von Merkmalen, die Einzelpersonen als potenzielle Risiken oder Bedrohungen qualifizieren. Ein Blick auf die Bedrohungsanalysen, die bereits in der Drohnenkriegsführung verwendet werden, zeigt erste Anzeichen dafür, wie sich diese Biases in Künstlicher Intelligenz weiter manifestieren könnten. Wie Sarah Shoker in ihrem Buch Military-Age Males in Counterinsurgency and Drone Warfare beschreibt, spielen Vorurteile eine zentrale Rolle bei der Beurteilung, wer als Bedrohung auf dem Schlachtfeld gilt und wer nicht. Der Begriff "Military Age Male" (militärisch einsetzbarer Mann) als Kategorisierung für potenzielle Zielpersonen offenbart, wie tief verwurzelte Vorurteile in Bezug auf Geschlecht, Alter, Rasse und Religion tödliche Konsequenzen haben können. Weitere Untersuchungen belegen, dass Geschlecht, ethnische Zugehörigkeit und Religion prägen, welche Körper als "tötbar" in Drohnenangriffen angesehen werden. Ein Beispiel aus den Dokumenten der Trump-Administration zur Drohnenkriegsführung von 2021 zeigt, dass bei der Beurteilung, ob Männer oder Frauen eine ausreichende Bedrohung darstellen, unterschiedliche Anforderungen gestellt wurden. Diese Berichte und Studien machen deutlich, dass Vorurteile beeinflussen, wer als Ziel betrachtet wird – unabhängig davon, ob die betreffende Person tatsächlich eine Bedrohung darstellt oder nicht.
Das Besorgniserregende an der Nutzung von Algorithmen zur Bedrohungsanalyse ist, dass diese trotz riesiger Datenmengen immer noch Fehler machen können. Es gibt verschiedene Arten von Daten, die von Militärs verwendet werden, um durch Algorithmen zu bestimmen, ob eine Person eine Bedrohung darstellt, um sie dann in einem Drohnenangriff zu eliminieren – ohne zu wissen, ob diese Person tatsächlich eine Gefahr ist. So zeigte eine Untersuchung, dass die Person, die von einem Algorithmus als höchste Bedrohung eingestuft wurde, tatsächlich der Bureau Chief von Al-Jazeera in Islamabad war, was darauf hinweist, dass auch unschuldige Personen aufgrund voreingenommener KI-Systeme als Bedrohung identifiziert werden können. Hier werden viele Eintrittspunkte für Bias in die Algorithmen sichtbar, was nicht nur theoretische, sondern auch tragische, realweltliche Konsequenzen hat.
Ein weiteres Problem betrifft die Zuverlässigkeit von Gesichtserkennungs- und Objekterkennungssystemen, die in der Kriegsführung verwendet werden, um Ziele zu identifizieren. Angesichts der zunehmenden Entwicklung autonomer Waffensysteme und Fahrzeuge wird erwartet, dass solche Systeme verstärkt zum Einsatz kommen, insbesondere bei der Zielerfassung. Im Vereinigten Königreich wird bereits Gesichtserkennung genutzt, um Kriminelle in Menschenmengen zu identifizieren – wobei Untersuchungen zeigten, dass das Programm nur in 5 % der Fälle korrekt arbeitete. Diese Tendenzen werfen ernsthafte Fragen hinsichtlich der Vertrauenswürdigkeit solcher Systeme auf, wenn sie im Kampfeinsatz verwendet werden. Ein weiteres Beispiel, das die Problematik verdeutlicht, ist Project Maven, das zur Objekterkennung im Nahen Osten entwickelt wurde, jedoch Schwierigkeiten hatte, in anderen kulturellen Kontexten zu arbeiten. Ein Problem hierbei war der kulturelle Unterschied in der Bekleidung von Männern und Frauen, was die Genauigkeit des Programms beeinträchtigte. Diese Beispiele verdeutlichen, wie Bias in die Künstliche Intelligenz eingreifen kann, wenn Trainingsdaten unterrepräsentiert sind, aber das Beispiel von Project Maven zeigt auch ein weiteres Dilemma der KI-Entwicklung: das Erkennen kultureller Unterschiede und Feinheiten. Dieses Problem wird als eine der größten Herausforderungen für die KI-Programmierung angesehen und wirft Fragen zur Genauigkeit und Zuverlässigkeit von Zielerkennung und Feindidentifikation auf.
Ein weiteres Problem betrifft die Vertrauenswürdigkeit der KI in Bezug auf die Identifikation von Zielen, wie etwa Fahrzeugen oder anderen militärischen Objekten. Auch hier stellt sich die Frage, wie gut wir verstehen, wie diese Systeme ihre Entscheidungen treffen. Die Herausforderung besteht darin, dass es nicht immer klar ist, wie das System zu seinen Entscheidungen kommt. Ein Beispiel hierfür ist, dass ein Programm ein Feindziel aufgrund eines Merkmals wie der Farbe eines Flugzeugflügels als Ziel identifiziert, was möglicherweise zu freundlichem Feuer führen könnte. Diese Problematik, dass Maschinen in ihren Entscheidungen übertrieben vertraut wird, ist ein bekannter Punkt in den Diskussionen über den Einsatz von KI in der Kriegsführung. Die Gefahr besteht darin, dass Menschen den Maschinen zu viel Vertrauen entgegenbringen, auch wenn wir nicht genau wissen, wie diese ihre Entscheidungen treffen.
Ein weiteres Problem liegt in der Gestaltung von Mensch-Maschine-Systemen, die aufgrund von Bias in ihrer Konstruktion möglicherweise nicht effektiv für alle Nutzergruppen sind. Zwar werden zukünftige militärische Systeme viele autonome Funktionen besitzen, jedoch wird weiterhin ein erheblicher menschlicher Einfluss notwendig sein. Beispielsweise könnten in Kampfsituationen Headsets zum Einsatz kommen, die den Soldaten durch die Analyse von Echtzeitdaten Empfehlungen geben. Oder ein Pilot eines Kampfflugzeugs könnte sowohl das eigene Flugzeug steuern als auch autonome Jets überwachen und koordinieren. Ein oft unbeachteter Faktor dabei ist die unbewusste Voreingenommenheit, die in das Design dieser Systeme einfließt. So haben viele technologische Entwicklungen, die auf den durchschnittlichen männlichen Nutzer ausgerichtet sind, die weiblichen Nutzer systematisch benachteiligt. Dies zeigt sich beispielsweise in der schlechteren Funktionsweise von Sprachsteuerungssystemen bei Frauen oder in der Tatsache, dass Autosicherheitsvorrichtungen wie Airbags für Männer effektiver sind. Diese Design-Biases könnten dazu führen, dass Frauen oder andere Minderheiten in militärischen Konflikten durch die Verwendung von fehlerhaften oder ineffektiven Systemen benachteiligt werden.
Es ist daher von großer Bedeutung, dass bei der Entwicklung von KI im militärischen Bereich nicht nur die Technologie selbst, sondern auch die sozialen und kulturellen Kontexte berücksichtigt werden, in denen sie eingesetzt wird. Der Einsatz von KI in der Kriegsführung kann schwerwiegende Folgen haben, wenn die zugrunde liegenden Biases nicht erkannt und adressiert werden. Die ethischen und praktischen Implikationen sind tiefgreifend und sollten kontinuierlich hinterfragt werden, um unnötige Eskalationen und tragische Fehler zu vermeiden.
Wie beeinflusst Künstliche Intelligenz die Kriegsführung und welche ethischen Fragen entstehen?
Die Entwicklung militärischer Technologie hat die Art und Weise, wie Kriege geführt werden, grundlegend verändert. Vom Einsatz von Bögen und Pfeilen in der Antike bis hin zu den modernen, KI-gesteuerten Drohnen und Roboterwaffen haben technische Innovationen stets neue Dimensionen des Krieges eröffnet. Heute sind wir an einem Punkt angelangt, an dem die Kriegsführung nicht nur von Menschen, sondern auch von Maschinen bestimmt wird – insbesondere durch den Einsatz von Künstlicher Intelligenz (KI), die zunehmend eine entscheidende Rolle spielt.
Die Vorstellung von KI, die in militärischen Kontexten eingesetzt wird, ist keineswegs neu. Bereits 1956 wurde der Begriff „Künstliche Intelligenz“ während der Dartmouth Summer Research Conference eingeführt. Doch es war der britische Mathematiker Alan Turing, der in seiner berühmten Arbeit von 1950 mit der Frage „Können Maschinen denken?“ den Grundstein für die moderne KI-Forschung legte. Heute ist es kaum vorstellbar, dass die militärische Nutzung von KI in Zukunft nicht weiter zunehmen wird. Der russische Präsident Wladimir Putin sagte 2017 in einer Ansprache, dass KI nicht nur für Russland, sondern für die gesamte Menschheit von enormer Bedeutung sei, mit gewaltigen Chancen und ebenso gefährlichen Risiken. In den letzten Jahren haben sich militärische Drohnen und autonome Waffensysteme – oftmals auch als „Killerroboter“ bezeichnet – als bedeutende Instrumente im Krieg etabliert.
Diese Entwicklung hat nicht nur Auswirkungen auf das Kriegsführung selbst, sondern auch auf die Ethik der Kriegsführung. KI-gesteuerte Waffen und die Automatisierung militärischer Entscheidungen werfen gravierende moralische und rechtliche Fragen auf. Es ist eine der drängendsten ethischen Herausforderungen der Gegenwart, wie eine solche Technologie gestaltet werden sollte, um sicherzustellen, dass sie nicht zu einem Werkzeug unkontrollierter Gewalt wird.
Ein zentrales Problem ist die Frage der Verantwortlichkeit. Wer trägt die Verantwortung für die Entscheidungen einer KI, die möglicherweise zu Gewalt, Zerstörung und Verlust von Menschenleben führt? Wenn autonome Waffensysteme die Entscheidung über Leben und Tod selbst treffen, ohne dass ein Mensch eingreift, wird es schwierig, eine klare rechtliche und moralische Verantwortung zuzuordnen. Dies führt zu einem Dilemma, das sowohl auf den Gebieten der internationalen Kriegsgesetze als auch der Menschenrechte zu ungelösten Fragen führt. Angesichts dieser potenziellen Risiken muss die Entwicklung solcher Technologien eng überwacht und reguliert werden.
Darüber hinaus werden bei der Schaffung von KI-gesteuerten Kriegsmaschinen nicht nur technische, sondern auch soziale und kulturelle Fragestellungen von Bedeutung. Ein Beispiel für diese Problematik ist der sogenannte „Bias“ in KI-Algorithmen. Schon jetzt zeigen zahlreiche Studien, dass KI-Systeme rassistische und geschlechtsspezifische Vorurteile in sich tragen können. Dies kann zu diskriminierenden Entscheidungen führen, die etwa in militärischen Konflikten zu einer ungleichen Behandlung von Soldaten oder Zivilisten führen können. Derartige Verzerrungen in der KI erfordern eine kritische Auseinandersetzung, um sicherzustellen, dass solche Systeme nicht bestehende Ungleichheiten verstärken.
Die zunehmende Militarisierung von KI birgt jedoch nicht nur ethische Bedenken, sondern auch tiefgreifende gesellschaftliche Implikationen. Es ist entscheidend, die kulturellen Auswirkungen von KI auf die Kriegsführung zu verstehen. Einige Experten warnen davor, dass der Einsatz von KI die menschliche Dimension des Krieges, die mit Empathie und ethischen Überlegungen verknüpft ist, zunehmend verdrängen könnte. Dies könnte zu einer Entmenschlichung der Kriegsführung führen, bei der der Einsatz von Maschinen die persönliche Verantwortung und moralische Abwägungen verwässert.
KI hat jedoch nicht nur das Potenzial, Kriege zu verschärfen, sondern könnte auch in bestimmten Szenarien zur Deeskalation beitragen. So könnten KI-gesteuerte Systeme dazu verwendet werden, präzise Angriffe zu koordinieren, die gezielt militärische Ziele ohne übermäßige Kollateralschäden treffen. Die Entwicklung solcher Technologien könnte das Ziel haben, die menschliche Fehlbarkeit zu minimieren und unnötiges Leid zu verhindern. Jedoch bleibt die Herausforderung, sicherzustellen, dass diese Systeme nicht missbraucht werden oder in einer Art und Weise eingesetzt werden, die zu einer weiteren Eskalation führen.
Ein weiterer Aspekt, der bei der Diskussion über militärische KI von Bedeutung ist, ist die Frage, wie diese Technologien auf internationaler Ebene reguliert werden können. Die UN hat bereits einige Maßnahmen ergriffen, um die Entwicklung und den Einsatz autonomer Waffensysteme zu überwachen, doch es gibt noch keinen verbindlichen internationalen Konsens über die ethischen Grenzen des Einsatzes von KI in der Kriegsführung. Die Entwicklung von Normen und Standards, die den Einsatz solcher Technologien regeln, ist eine der dringlichsten Aufgaben für die internationale Gemeinschaft, um die Gefahr eines unkontrollierten Wettrüstens mit KI-unterstützten Waffen zu verhindern.
Das Zusammenspiel von KI und Kriegstechnologie wird somit in den kommenden Jahren zu einem zentralen Thema in der globalen Sicherheits- und Friedenspolitik werden. Es ist zu hoffen, dass die internationale Gemeinschaft, zusammen mit den verantwortlichen Akteuren der KI-Entwicklung, in der Lage sein wird, Lösungen zu finden, die sowohl ethisch vertretbar als auch praktikabel sind, um die negativen Auswirkungen von KI auf die Kriegsführung zu minimieren.
Wie verändert hybride und Grey-Zone-Kriegsführung unsere Vorstellung von Krieg, Ethik und Recht?
Der Begriff der asymmetrischen Kriegsführung tauchte erstmals 1991 auf und bezeichnet eine Auseinandersetzung zwischen Akteuren mit stark ungleichen militärischen Kapazitäten. Dabei kommen unkonventionelle Mittel zum Einsatz – etwa Guerillataktiken, Terroranschläge oder Cyberangriffe, die mit minimalem Ressourceneinsatz maximalen Schaden verursachen. Diese asymmetrischen Angriffe gewinnen durch den Einsatz Künstlicher Intelligenz neue Dimensionen. Sowohl staatliche als auch nichtstaatliche Akteure – Kriminelle, Terroristen, Söldner – greifen zunehmend auf KI-gestützte Systeme zurück, um ihre Ziele durchzusetzen.
Die Vorstellung von Hybridkriegen wurde maßgeblich durch Frank G. Hoffman geprägt. In seinem Werk „Conflict in the 21st Century: The Rise of Hybrid Wars“ beschreibt er ein Bedrohungsszenario, in dem konventionelle, irreguläre, terroristische und kriminelle Mittel gleichzeitig und adaptiv eingesetzt werden. Die Bedrohung geht dabei nicht zwingend von einem einzigen Akteur aus, sondern kann eine orchestrierte Verbindung von staatlichen und nichtstaatlichen Kräften darstellen. Der hybride Krieg vermischt kinetische und nichtkinetische Mittel in einer nichtlinearen, ineinandergreifenden Strategie und entzieht sich damit klassischen Definitionen von Krieg. Er findet täglich und ohne formelle Kriegserklärung statt, durchdringt Friedenszeiten und zersetzt deren Ordnung. Raumfahrttechnologie und KI-gestützte Waffensysteme erweitern die Reichweite und Zerstörungskraft dieser Kriegsführung exponentiell.
Wichtiger Bestandteil hybrider Kriegsführung ist die systematische Nutzung nichtkinetischer Mittel: KI-gesteuerte Propaganda, Cyberangriffe, politische Destabilisierung, wirtschaftlicher Druck oder das Schüren von Unruhen durch nichtstaatliche Akteure. Diese Mittel wirken nicht isoliert, sondern als Teil eines übergeordneten strategischen Gesamtkonzepts, das darauf abzielt, den Gegner langfristig zu schwächen oder zu unterwandern. Der hybride Krieg ist nicht nur ein militärisches, sondern ein politisches und technologisches Projekt.
Die sogenannte Grey-Zone-Kriegsführung ist in ihren Methoden vergleichbar, unterscheidet sich aber durch ihre systematische Ausnutzung des Raumes zwischen Krieg und Frieden. Sie verfolgt das Ziel, den Status quo durch Zwangsmaßnahmen zu verändern, ohne dabei die Schwelle eines offenen militärischen Konflikts zu überschreiten. Ashok Kumar Singh beschreibt sie als operatives Handeln unterhalb der Kriegsschwelle – subthreshold – mit einem Arsenal, das sowohl militärische als auch nichtmilitärische Mittel umfasst. Die strategische Raffinesse liegt gerade darin, keine klare Angriffssituation zu schaffen, die eine legitime militärische Reaktion erlauben würde. Die Ambivalenz und die absichtliche Unschärfe zwischen Aggression und Diplomatie ermöglichen es dem Angreifer, seine Ziele zu verfolgen, ohne internationale Reaktionen im vollen Umfang auszulösen.
Typische Mittel in der Grey-Zone sind wirtschaftliche Erpressung, gezielte Cyberoperationen, Desinformation, Wahlmanipulation oder die Einflussnahme auf staatliche Institutionen. Ein klassisches Beispiel ist die mutmaßliche russische Einmischung in die US-Präsidentschaftswahlen 2016 – ein Paradefall für die instrumentalisierte Anwendung von KI in einem kriegähnlichen, aber formal friedlichen Kontext. Der Unterschied zwischen Grey-Zone- und Hybridkrieg bleibt graduell, nicht prinzipiell – beide setzen auf Vielschichtigkeit, Ambivalenz und eine Erosion klassischer Kriegsvorstellungen.
Diese Entwicklungen fordern nicht nur strategische und technologische Antworten, sondern stellen auch die Grundlagen völkerrechtlicher und ethischer Systeme infrage. Die Theorie des „gerechten Krieges“, verwurzelt in Mythologie, Theologie und später kodifiziert durch Denker wie Hugo Grotius in „De iure belli ac pacis“ (1625), beruht auf vier Prinzipien: gerechter Anlass, legitime Autorität, Verhältnismäßigkeit und der Schutz von Nichtkombattanten. Doch diese Prinzipien scheinen zunehmend unzureichend angesichts von Cyberkrieg, Drohnenangriffen oder verdeckter Einflussnahme durch KI.
Im Zeitalter globaler Terrornetzwerke und technisierter Angriffsführung verwischen die Grenzen zwischen Krieg und Verbrechen, zwischen legalem Handeln und moralischer Verantwortung. Der sogenannte „Krieg gegen den Terror“ ist exemplarisch: Er folgt keiner formellen Kriegserklärung, zielt aber auf militärische Zerstörung, meist außerhalb des eigenen Staatsgebiets. Die Tötung von Terroristen durch bewaffnete Drohnen in souveränen Staaten, ohne Kriegserklärung oder bilaterales Abkommen, stellt das klassische Kriegsrecht auf die Probe.
Noch schwerer wiegt die Tatsache, dass es keine einheitliche Definition von Terrorismus gibt. Was für einen Staat ein Terrorist ist, wird von einem anderen als Freiheitskämpfer angesehen. Der Kaschmirkonflikt ist ein Beispiel: Für Indien ein Fall grenzüberschreitenden Terrorismus’, für Pakistan ein Ausdruck legitimen Widerstands. Diese Asymmetrie in der Wahrnehmung spiegelt sich auch in der völkerrechtlichen Bewertung von Gewaltakten wider. Der moralische Unterschied zwischen motiviertem Krieg und „gratuitöser Gewalt“ durch Terrorismus löst sich auf, wenn ideologisch motivierte Gruppen die staatliche Gewaltmonopol herausfordern und es ihnen gelingt, über Technologien wie KI ihren Einfluss global auszuweiten.
Vor diesem Hintergrund wird zunehmend diskutiert, ob die bestehenden ethischen und rechtlichen Rahmenbedingungen – insbesondere das Humanitäre Völkerrecht (IHL) – noch adäquat auf die neue Kriegsrealität reagieren können. Zwar wurden bestehende ethische Prinzipien durch Verbote chemischer und biologischer Waffen ergänzt, doch gerade im Hinblick auf autonome Waffen, algorithmisch gesteuerte Kriegsführung und subversive Grauzonenhandlungen besteht dringender Handlungsbedarf. Dennoch bleibt der grundlegende Rahmen – etwa die Unterscheidung zwischen Kämpfenden und Zivilisten oder das Prinzip der Verhältnismäßigkeit – normativer Kern und Orientierungspunkt, auch wenn seine Anwendung in der Praxis immer schwieriger wird.
Was hinzukommen muss, ist eine tiefere Auseinandersetzung mit der Rolle von KI als strategischem Akteur. Nicht nur als Waffe, sondern auch als Entscheidungsträger. Wenn Algorithmen nicht nur Schussfreigaben erteilen, sondern auch strategische Optionen bewerten, muss die Frage nach Verantwortung neu gestellt werden. Wer haftet, wenn ein KI-System eine Eskalation herbeiführt? Und wie lässt sich sicherstellen, dass diese Systeme internationalen Normen folgen, wenn sie von nichtstaatlichen Akteuren eingesetzt werden, die keiner Rechenschaftspflicht unterliegen?
Der hybride und Grey-Zone-Krieg führt nicht nur zur Destabilisierung globaler Ordnungen, sondern auch zur Aushöhlung völkerrechtlicher Grundlagen. Die Unschärfe zwischen Frieden und Krieg, die Technologisierung des Konflikts und der wachsende Einfluss nichtstaatlicher Gewaltakteure erfordern nicht nur neue Strategien, sondern auch ein neues Verständnis von Krieg, Moral und Verantwortung.
Wie effektiv ist der Einsatz von KI in militärischen Systemen und wie kann er verbessert werden?
Edge-Masking, Wissensfusion und Wissensersetzung sind im Allgemeinen nicht besonders effektiv, insbesondere wenn sie auf natürliche Sprachverarbeitung (NLP) angewendet werden, die für militärische Aufgaben entwickelt wurde. Maskierte Sprachmodelle sind in der Lage, nur grundlegendes semantisches Wissen zu modellieren. Üblicherweise werden Vortrainierungsaufgaben auf die Korpora und Entitätsmerkmale allgemein verfügbarer Texte abgestimmt, was für das Mining von Militärtexten jedoch nicht geeignet ist. Daher besteht eine dringende Notwendigkeit, domänenspezifische Vortrainierungsübungen zu entwickeln. Es stellt sich also die Aufgabe, eine effektivere Methode zu entwickeln, um militärisch spezifisches Wissen in Sprachrepräsentationsmodelle zu integrieren.
KI-gestützte Anwendungen und Systeme bergen erhebliche Risiken, die hauptsächlich aus den einzigartigen Merkmalen der maschinellen Lerntechnologie resultieren, insbesondere aus den tiefen neuronalen Netzen, die diese Systeme antreiben. KI-unterstützte militärische Systeme, im Besonderen, stellen ein spezielles Risiko dar, da sie eine Bedrohung für Menschenleben darstellen können. Im Zentrum dieser Bedenken steht das zunehmend intelligente Verhalten von KI-Systemen, das in den letzten Jahren zu einer immer weitergehenden Delegation kognitiver Funktionen an Maschinen geführt hat. Dies hat eine Reihe von rechtlichen, ethischen und moralischen Dilemmata aufgeworfen, die entsprechend analysiert und angegangen werden müssen. Gleichzeitig ist es allgemein anerkannt, dass enorme Vorteile für die Menschheit – sowohl auf dem Schlachtfeld als auch darüber hinaus – entstehen könnten, wenn die Macht der KI verantwortungsvoll genutzt wird. Dieser zweischneidige Charakter der KI-Technologien weist auf die Notwendigkeit hin, einen sorgfältig durchdachten Mechanismus für die Regulierung der Entwicklung von autonomen Waffensystemen (AWS) zu schaffen.
Mallick warnt davor, dass KI-basierte Software zwar die Geschwindigkeit der Entscheidungsfindung erhöht, aber auch eskalierend wirkt. Der Krieg könnte unkontrollierbar werden. Daher ist die Integration von KI in die Befehlshierarchie ein riskanter Schritt. Wie sieht es mit Schwarmrobotern aus, einem Waffensystem, in das sowohl die USA als auch China investieren? Die Steuerung von Schwarmrobotern umfasst zwei Teile: Mensch-Maschine- und Maschine-Maschine-Interaktionen. Die Interaktion zwischen den einzelnen Robotern im Schwarm führt zu emergentem Verhalten. Dieses Verhalten ist nicht vorprogrammiert, daher kann der Befehlshaber das Verhalten des Systems nicht vorhersagen. Merel Ekelhof und Giacomo Persi Paoli warnen vor den Gefahren mit den Worten: „Durch das Fehlen eines universellen Modells, das es den Menschen ermöglicht, komplexes emergentes Verhalten zu verstehen und in einer angemessenen Zeit darauf zu reagieren.“ Dies wird zu einem Mangel an Vertrauen und Kontrolle des Befehlshabers über den Schwarm führen und das Risiko für unerwünschtes Verhalten des Roboter Schwarms erhöhen.
Die Risiken, die von verschiedenen Arten militärischer Systeme ausgehen, variieren erheblich, und die Anwendung eines einheitlichen Satzes von Risikominderungsstrategien auf alle Systeme wird vermutlich suboptimal sein. Diese könnten für hochriskante Systeme zu nachsichtig, für risikoarme Systeme zu streng und die Entwicklung von Systemen behindern, die in verschiedenen Aspekten vorteilhaft sein könnten. Ein risikobasierter Ansatz hat das Potenzial, diese Nachteile zu überwinden. Es ist erforderlich, die Umrisse eines solchen Ansatzes zu skizzieren, der für die Regulierung von Militärsystemen übernommen werden könnte. Die Analyse, die diesem Ansatz zugrunde liegt, wird zwar nicht immer explizit ausgedrückt, ist jedoch tief verwurzelt im Ziel, eine sinnvolle menschliche Kontrolle (MHC) zu erreichen, die in allen KI-unterstützten militärischen Systemen ein zentrales Ziel darstellt.
Ein weiterer wichtiger Punkt ist, dass KI-gesteuerte Waffensysteme (AWS) in naher Zukunft möglicherweise zu einer Realität wie im Film „Terminator“ führen könnten, falls MHC nicht etabliert wird. Die Frage bleibt, ob AWS in der Zukunft zu einer bösartigen Superintelligenz werden könnte, die Menschen tötet. Um dies zu verhindern, muss das Konzept der MHC entpackt und untersucht werden, wie es etabliert und aufrechterhalten werden kann, sowie welche Art von Kommandoökosystem dafür erforderlich ist.
Ein bedeutendes Problem bei der Zusammenarbeit von bemannten und unbemannten Systemen ist die Bedrohung durch elektronische Kriegsführung (EW) und Cyberkriegsführung, insbesondere durch Spoofing und Störung der Kommunikation von Drohnen. Heavily encrypted communications are difficult to decipher, but they could be jammed. While encrypted communications are hard to decipher, they can still be jammed. Multiple data links can be attached to a UAV for redundancy, so that an electronic attack against one device would not necessarily disrupt the entire support system that enables unmanned flight.
Ein weiteres Beispiel für emergentes Verhalten innerhalb von Drohnenschwärmen ist die Idee der „unbewussten Zusammenarbeit“. In einem solchen Netzwerk, das dem Verhalten einer Ameisenkolonie ähnelt, verstehen die Drohnen nicht vollständig die Aktivitäten der anderen Drohnen, sondern folgen vordefinierten Anweisungen, die auf ein aggregiertes Ergebnis ausgerichtet sind. Dieses Prinzip ermöglicht es den Drohnen, gemeinsam zu agieren, ohne direkt miteinander zu kommunizieren. Die Drohnen passen sich selbst an, wenn sie eine Lücke oder eine Fehlfunktion in ihrer Umgebung feststellen. Ein solches System erfordert nur minimale Befehls- und Steuersignale, was es immun gegenüber feindlicher elektronischer Kriegsführung macht.
Dennoch besteht bei KI-unterstützten Waffensystemen, die mit begrenzter Autonomie ausgestattet sind, das Risiko unbeabsichtigter und unnötiger Schäden an Zivilisten oder das Auftreten von Fratricide. In einem digitalen Schlachtfeld können Waffensysteme mit KI durch Cyberangriffe gehackt oder manipuliert werden. In diesem Zusammenhang warnt Van Creveld vor einer zu starken Abhängigkeit von Technologie und betont, dass es wichtig ist, die Grenzen technologischer Geräte zu verstehen und die Lücke durch menschliche Intervention zu füllen, wenn diese Geräte versagen.
Schließlich sollte auch die zunehmende Abhängigkeit von großen Datenmengen, die zwischen den Einheiten an der Front und den Kommandozentralen übertragen werden, beachtet werden. Diese Informationsströme sind anfällig für Cyberangriffe, was die Notwendigkeit unterstreicht, durchdachte Sicherheitsmaßnahmen zu entwickeln, um die Integrität der militärischen Entscheidungsfindung zu gewährleisten.
Wie die Waris und Chimú Zivilisationen die Architektur und Landwirtschaft prägten
Wie die Verbreitung von Falschmeldungen unser Wissen beeinträchtigt und zu epistemischem Verfall führt
Warum haben wir uns nicht gleich in Drohnen verwandelt?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский