Die Entwicklung von sechsten Generationen von Kampfflugzeugen hat sich zu einem internationalen Wettrennen entwickelt, das sowohl technologische Innovationen als auch geopolitische Herausforderungen mit sich bringt. Die Vereinigten Staaten, Europa, Russland und China sind mit ihren eigenen Programmen und Visionen auf diesem Gebiet aktiv. Während sich die USA auf die nächsten Schritte im NGAD-Programm (Next Generation Air Dominance) konzentrieren, entwickelt Europa parallel dazu eigene Konzepte wie das FCAS (Future Combat Air System) und Tempest, die die Art und Weise, wie Luftkriegsführung zukünftig geführt wird, revolutionieren könnten.

Ein zentrales Merkmal der sechsten Generation ist der zunehmende Einsatz von Künstlicher Intelligenz (KI). Diese KI ist nicht nur ein Zusatz, sondern vielmehr ein integraler Bestandteil der neuen Flugzeugfamilien, die eine enge Zusammenarbeit zwischen bemannten und unbemannten Plattformen erfordern. Ein Beispiel für diese Entwicklung ist das US-amerikanische Programm Collaborative Combat Aircraft (CCA), das unbemannte Flugzeuge (UAVs) integriert, die mit fortgeschrittenen KI-Systemen ausgestattet sind, um Feindabwehrsysteme zu durchdringen, feindliche Luftabwehr zu unterdrücken und in Hochrisikogebieten präzise Waffeneinsätze durchzuführen.

Ein entscheidender Schritt in diese Richtung wurde im September 2022 erzielt, als die amerikanischen Verteidigungsunternehmen Kratos und General Atomics den Einsatz eines KI-Piloten im UAV Avenger MQ-20A bekannt gaben. Diese Entwicklung weist auf die zunehmende Rolle autonomer Fluggeräte hin, die künftig eine Schlüsselrolle in der Luftkriegsführung spielen könnten. Auch wenn diese Technologie noch in den Kinderschuhen steckt, so deutet die steigende Zahl autonomer Einsatzmöglichkeiten darauf hin, dass der Übergang zu rein unbemannten oder optional bemannten Cockpits in nicht allzu ferner Zukunft realisierbar sein könnte.

Europa verfolgt mit dem FCAS-Programm ein ähnliches Ziel. Insbesondere der britisch-französisch-deutsche Ansatz strebt den Bau eines „Next Generation Fighter“ (NGF) an, der mit einer Vielzahl von UAVs verbunden ist und für offensive sowie Überwachungsmissionen eingesetzt werden soll. Auch hier wird KI eine zentrale Rolle spielen, sei es in der Unterstützung des Piloten oder in der Steuerung unbemannter Systeme. Die geplante Integration von KI in diese Flugzeuge soll den Piloten entlasten, indem sie ihn bei der Bewältigung komplexer taktischer Entscheidungen unterstützt und gleichzeitig den Informationsfluss optimiert.

Die technologische Weiterentwicklung auf der Basis von KI stellt auch eine Herausforderung für die internationalen Kooperationen dar. Während Großbritannien und Japan ihre Kräfte bündeln, um gemeinsam Triebwerke für das Tempest-Programm und das japanische F-X zu entwickeln, gestaltet sich die Zusammenarbeit im Bereich der KI bei Flugzeugen schwieriger, insbesondere angesichts der unterschiedlichen strategischen Interessen und der Konkurrenz zwischen den Staaten. Hinzu kommen die finanziellen Hürden, die mit der Entwicklung von sechsten Generationen von Kampfflugzeugen verbunden sind. Die enormen Kosten dieser neuen Technologien werfen auch in den USA, dem derzeit führenden Land in der Luftwaffenentwicklung, Fragen auf. Trotz herausragender Leistungen ihrer fünften Generation Flugzeuge wie der F-22 und F-35, stoßen diese auf internationale Zurückhaltung aufgrund ihrer hohen Preise.

Die Diskussion um die Kosten der sechsten Generation lässt auch eine interessante neue Richtung aufkommen: die „4.5. Generation“. Dabei handelt es sich um eine Weiterentwicklung der vierten Generation von Kampfflugzeugen, die mit neuen, weniger kostenintensiven Technologien ausgestattet wird, wie etwa einer verbesserten KI, ohne die massiven Investitionen in die sechste Generation zu erfordern. Flugzeuge wie die F-15 oder der B-2 Bomber erhalten schon jetzt KI-gestützte Upgrades, um ihre Fähigkeiten in Bereichen wie elektronische Kriegsführung (EW) und autonomer Informationsverarbeitung zu erweitern. Das KI-System des EA-18G Growler beispielsweise soll den elektronischen Angriff auf feindliche Radarstationen revolutionieren und wird voraussichtlich ab 2025 einsatzbereit sein.

In der jüngeren Vergangenheit wurden bereits erste Prototypen und Modelle für sechste Generationen von Flugzeugen vorgestellt, wie etwa der russische MIG-41 oder die chinesische „Dark Sword“-Konzeption. Diese Flugzeuge sollen mit fortgeschrittener KI ausgestattet sein, die nicht nur den Flugbetrieb optimiert, sondern auch in der Lage ist, Hyperschallgeschwindigkeiten zu erreichen und in der Satellitenabwehr zu operieren. Die russischen und chinesischen Programme stehen jedoch unter dem Schatten geopolitischer Spannungen und des Krieges in der Ukraine, was ihre künftige Entwicklung und deren Priorisierung im Rahmen der nationalen Sicherheitsstrategien erheblich beeinflussen könnte.

Während diese Flugzeuge noch in der Entwicklung sind, ist eine Sache sicher: Die Nutzung von KI in der Luftfahrttechnik verändert nicht nur die Art und Weise, wie Luftkriege geführt werden, sondern auch die gesamten Strukturen der Luftstreitkräfte. Die Grenze zwischen bemannt und unbemannt wird zunehmend verschwimmen, wobei der Pilot nicht mehr als zentraler Akteur in jedem Kampfgeschehen gilt. Vielmehr werden intelligente Systeme, die in der Lage sind, in Echtzeit Entscheidungen zu treffen und Daten zu analysieren, den Kampf mit größtmöglicher Effizienz führen.

Letztlich ist es die KI, die den Unterschied machen wird. Sie ermöglicht eine schnellere Entscheidungsfindung, eine effektivere Nutzung von Ressourcen und eine Reduzierung der menschlichen Fehlerquote. Für die kommenden Jahrzehnten könnte die Entwicklung von Kampfflugzeugen der sechsten Generation nicht nur einen technologischen, sondern auch einen paradigmatischen Wandel in der Luftkriegsführung darstellen.

Wie können KI-Systeme im militärischen Kontext gezielt unterwandert und manipuliert werden?

Im digitalen Raum, in dem KI-Systeme zwangsläufig operieren, sind sie inhärent verwundbar gegenüber feindlicher Infiltration. Zahlreiche Staaten führen heute offensive Cyberoperationen durch, die sich gezielt gegen dual-use-Technologien und sogar zivile Infrastrukturen richten – und das, obwohl kein formeller oder stillschweigender Kriegszustand besteht. Diese Angriffe werden zunehmend durch KI selbst verstärkt und strategisch gesteuert.

Ein zentrales Problem liegt in der Struktur maschinellen Lernens: Anders als herkömmliche Software, die auf Codefehlern basiert, sind KI-Systeme abhängig von Datenströmen. Diese Abhängigkeit stellt einen tiefgreifenden Schwachpunkt dar. Ein Gegner kann die Trainingsdaten manipulieren, Kommunikationsverbindungen unterbrechen oder verschlüsselte Steuerungssignale verändern – selbst ohne direkten Zugriff auf den Quellcode oder stabile Verbindungskanäle. Selbst vollständig autonome Systeme sind davor nicht sicher, da ihre „Intelligenz“ auf maschinellem Lernen basiert, das wiederum leicht von außen beeinflusst werden kann.

Ein klassisches Beispiel verdeutlicht das Risiko: Eine einfache physische Manipulation eines Verkehrszeichens – etwa ein paar Klebestreifen auf einem Stoppschild – kann von einem selbstfahrenden Auto als „grünes Licht“ interpretiert werden. Diese Art von Eingriff wird als adversarial AI bezeichnet – die gezielte Manipulation eines KI-Systems mit dem Ziel, dessen Verhalten zu stören oder zu kontrollieren.

Solche Angriffe lassen sich grob in zwei Typen unterteilen: Input-Angriffe und Poisoning-Angriffe. Erstere manipulieren die Eingabedaten eines Systems, um eine vom Angreifer gewünschte Ausgabe zu erzeugen. Da jedes KI-System grundsätzlich nur eine Maschine ist, die Eingaben verarbeitet und Ausgaben erzeugt, kann die Kontrolle über die Eingabe das gesamte Verhalten beeinflussen. Poisoning-Angriffe hingegen verändern den Lernprozess selbst. Hier wird das Modell so trainiert, dass es bestimmte Eingaben gezielt falsch interpretiert oder eine „Hintertür“ enthält, über die der Angreifer das System nach Belieben manipulieren kann. Besonders brisant ist dies in militärischen Kontexten, etwa wenn eine KI für die Erkennung feindlicher Flugzeuge trainiert wird – ein vergiftetes Modell könnte dann gezielt bestimmte Flugzeugtypen übersehen.

Diese Verwundbarkeiten sind besonders kritisch im Zusammenhang mit Edge-Computing-Plattformen, also dezentralen Systemen, bei denen Datenverarbeitung und KI-Modelle direkt auf den Geräten vor Ort erfolgen, anstatt über zentrale Cloud-Infrastrukturen. Solche Systeme sind im militärischen Einsatz unumgänglich, da die nötige Bandbreite für cloudbasierte KI-Modelle auf dem Schlachtfeld nicht zur Verfügung steht. Werden diese Plattformen jedoch vom Feind erbeutet, sind nicht nur die gesammelten Daten gefährdet, sondern auch die trainierten Modelle und die darauf basierenden Strategien anderer Systeme.

Die Konsequenzen dieser Art von Angriffen sind vielschichtig. Sie reichen von unmittelbarer physischer Zerstörung – etwa durch fehlerhafte Interpretation von Verkehrs- oder Zielinformationen – über das Verstecken kritischer Daten bis hin zur Destabilisierung des Vertrauens in die Systeme selbst. Im Extremfall können solche Eingriffe eine Kettenreaktion auslösen: Wird ein einziges KI-System kompromittiert, können zahlreiche andere, die auf denselben Datensätzen oder Modellen basieren, mitbetroffen sein. Der Trend zur Kostenreduktion in militärischen Organisationen fördert gerade diese Zentralisierung und Wiederverwendung von KI-Komponenten.

Eine einfache technische Lösung für diese strukturelle Schwäche gibt es nicht. Die Verwundbarkeit ist integraler Bestandteil der Technologie. Deshalb wird vorgeschlagen, umfassende Sicherheits- und Compliance-Programme zu etablieren, die sowohl technische als auch organisatorische Maßnahmen zur Prävention, Detektion und Reaktion auf KI-Angriffe umfassen. Die Umsetzung solcher Programme innerhalb hochgradig gegensätzlicher militärischer Kontexte bleibt jedoch eine offene Frage.

Die ethische Relevanz dieser Thematik beginnt bereits in der Phase der Grundlagenforschung. Der Zeitpunkt, zu dem moralische Überlegungen in den Entwicklungsprozess eingebunden werden, ist entscheidend. Während einige Stimmen davor warnen, ethische Bedenken zu früh einzubringen – aus Angst, gegenüber gegnerischen Mächten mit geringeren moralischen Standards ins Hintertreffen zu geraten –, argumentieren andere, dass nur eine ethische Grundstruktur in der Entwurfsphase den drohenden Kontrollverlust über autonome Waffensysteme verhindern kann. Denn die Geschwindigkeit, mit der KI-gesteuerte Waffensysteme agieren, lässt menschliche Entscheidungsträger zunehmend aus dem Entscheidungskreislauf herausfallen.

Ein weiterer kritischer Punkt ist die mangelnde Schnittmenge zwischen Softwareentwicklern und militärischen Endanwendern. Diese Asymmetrie führt zu gefährlichen Sicherheitslücken, da Entwickler oft keine umfassende Vorstellung vom operativen Kontext haben, in dem ihre Systeme eingesetzt werden. Die daraus resultierende „Inkomplettheit“ der Systeme wird nicht nur zu einem technischen Problem, sondern zu einer strategischen Schwachstelle.

Es ist daher unerlässlich, nicht nur die technischen, sondern auch die institutionellen und ethischen Rahmenbedingungen militärischer KI-Entwicklung neu zu denken. Die Priorisierung von Geschwindigkeit und Effizienz bei der Implementierung darf nicht auf Kosten der systematischen Widerstandsfähigkeit geschehen. Die militärische Integration von KI verlangt eine strukturelle Resilienz gegenüber Manipulation, ein tiefes Verständnis der algorithmischen Schwachstellen und eine bewusste Einbettung ethischer Prinzipien von Anfang an.

Wie wird Künstliche Intelligenz die Kriegsführung revolutionieren?

Künstliche Intelligenz (KI) hat das Potenzial, die Kriegsführung grundlegend zu verändern. Ihre Integration in Waffensysteme und Entscheidungssysteme wird nicht nur auf taktischer und operativer Ebene, sondern auch auf strategischer Ebene eine exponentielle Wirkung entfalten. Diese Entwicklung ist jedoch nicht nur das Resultat technologischer Innovationen, sondern auch ein Produkt der breiteren gesellschaftlichen Verschiebungen, die die Militarisierung der KI vorantreiben. Viele der derzeit im militärischen Bereich eingesetzten KI-Technologien sind Dual-Use-Technologien, die sowohl für zivile als auch militärische Anwendungen entwickelt wurden. Die Integration von KI in militärische Strukturen ist vor allem durch die laufende Informationsrevolution, auch bekannt als die Vierte Industrielle Revolution, möglich.

Der Begriff "Vierte Industrielle Revolution" wurde von Klaus Schwab geprägt und beschreibt einen tiefgreifenden Wandel, der das Zusammenspiel der digitalen, physischen und biologischen Sphären transformiert. Während die Erste Industrielle Revolution noch mit der Nutzung von Wasser- und Dampfkraft verbunden war und die Zweite auf Elektrizität setzte, brachte die Dritte Industrielle Revolution in den 1960er Jahren die Entwicklung von Personal Computern, dem Internet und der Automatisierung, was den Beginn des Digitalzeitalters markierte. Die Vierte Industrielle Revolution baut nun auf dieser Grundlage auf und entwickelt ein riesiges Ökosystem der menschlich-technologischen Schnittstellen. Diese Veränderung hat nicht nur Auswirkungen darauf, wie wir arbeiten, reisen und lernen, sondern auch auf den militärischen Sektor.

Obwohl die Entwicklung von KI in vielen Bereichen der Gesellschaft fortschreitet, bleibt die Frage, inwieweit diese Technologien die Kriegsführung selbst verändern können, umstritten. In militärischen Kreisen ist man sich zunehmend bewusst, dass KI eine disruptiven Technologie darstellt, die die Logistik, Taktiken und sogar die Entscheidungsfindung auf den Schlachtfeldern verändern könnte. Doch trotz dieser vielversprechenden Möglichkeiten ist die Anwendung von KI-Technologien auf dem Schlachtfeld derzeit noch begrenzt. Die jüngsten Konflikte, wie der israelische Kampf gegen Hamas (2006-2009) und der anhaltende Krieg zwischen Russland und der Ukraine, zeigen, dass KI bislang nur in einem sehr eingeschränkten Rahmen eingesetzt wird.

Die Technologie hat jedoch das Potenzial, Kriege zu entmenschlichen, indem sie die Rolle des Menschen im Kampf reduziert und Entscheidungen zunehmend von Maschinen treffen lässt. Dies könnte nicht nur die Art des Krieges verändern, sondern auch die Natur des Krieges selbst, indem es das strategische Denken und die militärischen Prinzipien neu definiert. In diesem Kontext betonen Experten, dass KI in naher Zukunft nicht nur taktische Operationen, sondern auch die gesamte Kriegsführung verändern wird. Dies gilt nicht nur für die direkte Anwendung von KI auf dem Schlachtfeld, sondern auch für die Veränderungen, die sie in den Bereichen Logistik, Schulung und Kommando verursachen könnte.

Ein bemerkenswertes Beispiel für die Integration von KI in moderne militärische Systeme ist die Entwicklung von unbemannten Flugzeugen (UAVs) und autonomen Drohnenschwärmen. Der Einsatz von UAVs, insbesondere in Konflikten wie in Afghanistan und Pakistan, hat eine neue Dimension der Kriegsführung eröffnet, indem er es den Streitkräften ermöglicht, Ziele präzise zu treffen, ohne physische Präsenz auf dem Boden zu zeigen. Diese Technologie könnte jedoch auch langfristig zu einer Entfremdung der lokalen Bevölkerung führen, was insbesondere für Strategien der stabilisierenden Kriegsführung problematisch sein könnte.

Ein weiteres technisches Konzept, das im Kontext der KI-gestützten Kriegsführung von Bedeutung ist, ist das "Swarming". Swarming bezieht sich auf die koordinierte Attacke mehrerer Einheiten aus verschiedenen Richtungen, um ein Ziel zu überwältigen. Im Bereich der KI-gesteuerten Kriegsführung bezieht sich Swarming auf autonome Drohnenschwärme, die in der Lage sind, unabhängig und schnell zu reagieren, um massierte Angriffe durchzuführen. Drohnenschwärme bieten die Möglichkeit, auf eine Art und Weise zu operieren, die für den Menschen in ihrer Geschwindigkeit und Koordination unmöglich ist. Durch den Einsatz von maschinellem Sehen (Machine Vision) können diese Drohnen ihre Umgebung in Echtzeit analysieren und sich gegenseitig koordinieren, um ihre Angriffe zu optimieren.

Das revolutionäre Potenzial dieser Technologien liegt in ihrer Fähigkeit, auf unerreichte Weise miteinander zu interagieren und zu kooperieren. In der Vergangenheit war Swarming ein Konzept, das in der Natur von Tieren wie Bienen oder Ameisen zu finden war, aber die Anwendung dieses Prinzips auf autonome Waffensysteme stellt einen signifikanten Bruch mit traditionellen militärischen Praktiken dar. Drohnenschwärme könnten in Zukunft als Massenvernichtungswaffe (WMD) eingesetzt werden, was neue ethische und rechtliche Herausforderungen mit sich bringt.

Die Integration von KI in die militärischen Strategien wird auch weitreichende Fragen hinsichtlich der Haftung, der ethischen Verantwortung und des Völkerrechts aufwerfen. Insbesondere die Entwicklung von "Lethal Autonomous Weapons Systems" (LAWS), die in der Lage sind, selbstständig tödliche Entscheidungen zu treffen, wird ein zentrales Thema in der militärischen und politischen Diskussion der kommenden Jahre sein. Diese Technologien werfen grundlegende Fragen zur Kontrolle und zu den moralischen Implikationen des Einsatzes von Maschinen auf, die Entscheidungen über Leben und Tod treffen können.

Die nächsten Schritte in der militärischen Nutzung von KI werden entscheidend dafür sein, wie sich diese Technologien in Zukunft entwickeln. Militärs auf der ganzen Welt investieren massiv in die Forschung und Entwicklung von KI-gesteuerten Waffensystemen, da sie das Potenzial haben, die Kriegsführung zu verändern. Die Frage ist jedoch, ob diese Technologien in der Lage sein werden, die gelebte Praxis der Kriegsführung in einer Weise zu verändern, die langfristig stabilisierend wirkt oder ob sie eher dazu führen werden, dass Konflikte noch komplexer und zerstörerischer werden.