Die rasante Entwicklung der Künstlichen Intelligenz (KI) verändert nicht nur die zivile Welt, sondern hat auch tiefgreifende Auswirkungen auf die militärische Strategie und die Kriegsführung. Die Integration von KI-Technologien in militärische Anwendungen stellt eine der bedeutendsten Herausforderungen des 21. Jahrhunderts dar. Die Auswirkungen auf die strategische und operative Planung sowie auf die künftigen taktischen Szenarien von konventionellen, unkonventionellen, cyber-technologischen, weltraumbezogenen und nuklearen Streitkräften sind enorm. Ein wachsendes Interesse an den Möglichkeiten, die KI für militärische Zwecke bietet, ist in den USA, Großbritannien, Russland, China und vielen anderen asiatischen und europäischen Ländern zu beobachten, die aktiv KI in ihre militärische Bereitschaft integrieren.

Künstliche Intelligenz wird zunehmend auch in Trainingsprozesse und Kommandostrukturen eingesetzt, wodurch neue Dimensionen in der Kriegsführung eröffnet werden. Diese Technologien bieten das Potenzial, militärische Operationen effizienter zu gestalten, die Entscheidungsfindung zu beschleunigen und die Präzision von Angriffen zu erhöhen. Doch diese Fortschritte bringen auch neue ethische und rechtliche Fragestellungen mit sich. Die Frage, wie weit die Autonomie von KI-Systemen in militärischen Konflikten gehen darf, ist von entscheidender Bedeutung. Während der Einsatz von KI in der Kriegsführung viele Vorteile bieten kann, wirft er auch die Frage auf, inwieweit Maschinen die Kontrolle über Leben und Tod übernehmen dürfen, ohne dass der Mensch letztlich Verantwortung trägt.

Besonders problematisch wird diese Thematik, wenn man an die Entwicklung von selbstständigen Kriegsmaschinen denkt, die unabhängig Entscheidungen treffen könnten. In diesem Zusammenhang entstehen ethische Dilemmata hinsichtlich der Frage, ob solche Maschinen in der Lage sind, moralische und ethische Überlegungen in ihre Handlungen einzubeziehen. Die Notwendigkeit, ethische Richtlinien zu entwickeln, die den Einsatz von KI in Kriegsführung regeln, ist daher nicht nur eine technische Herausforderung, sondern auch eine tiefgreifende gesellschaftliche und philosophische Frage.

Ein weiteres zentrales Thema im Zusammenhang mit KI-gesteuerter Kriegsführung ist die Verzerrung in den Algorithmen. KI-Systeme sind nur so gut wie die Daten, mit denen sie trainiert wurden. Wenn diese Daten Vorurteile oder ungenaue Informationen enthalten, können auch die KI-gesteuerten Entscheidungen fehlerhaft oder sogar gefährlich sein. In militärischen Szenarien kann dies zu unvorhersehbaren und potenziell katastrophalen Ergebnissen führen. Dies stellt eine der größten Herausforderungen für die Entwicklung von vertrauenswürdigen und sicheren KI-Systemen in der Kriegsführung dar.

Ein weiterer Aspekt, der nicht übersehen werden darf, ist die rechtliche Dimension des Einsatzes von KI im Krieg. Die bestehenden internationalen Kriegsrechtskonventionen wurden in einer Zeit formuliert, in der die Kriegsführung von Menschen und nicht von Maschinen ausgeführt wurde. Das Fehlen von rechtlichen Rahmenbedingungen, die speziell auf KI-gesteuerte militärische Operationen ausgerichtet sind, stellt eine erhebliche Lücke dar, die es zu schließen gilt, um mögliche Konflikte und Missbräuche zu verhindern.

Neben den ethischen und rechtlichen Fragen, die mit der Integration von KI in militärische Anwendungen einhergehen, stellt sich auch die geopolitische Dimension der Entwicklung dieser Technologien. Staaten, die in der Lage sind, fortschrittliche KI-basierte Kriegsführung zu entwickeln, könnten strategische Vorteile gegenüber anderen Nationen erlangen. Dies könnte zu einer neuen Ära des Wettrüstens führen, bei der die Entwicklung von KI-gesteuerten Waffensystemen zu einem entscheidenden Faktor für die nationale Sicherheit wird. Dabei entstehen neue Bedrohungen für die Stabilität der internationalen Beziehungen und die Aufrechterhaltung des Friedens.

Die Integration von KI in militärische Anwendungen erfordert daher nicht nur technologische Innovation, sondern auch eine tiefgehende Auseinandersetzung mit den moralischen, ethischen und rechtlichen Implikationen dieser Technologien. Während KI das Potenzial hat, die Kriegsführung zu revolutionieren, darf nicht übersehen werden, dass die Verantwortung für ihre Nutzung letztlich bei den Menschen liegt, die diese Technologien entwickeln und einsetzen. Es bleibt abzuwarten, wie die internationale Gemeinschaft auf diese Herausforderungen reagieren wird und welche Normen und Regelungen in den kommenden Jahren entwickelt werden, um den sicheren und verantwortungsvollen Einsatz von KI in der Kriegsführung zu gewährleisten.

Der Leser muss sich darüber im Klaren sein, dass es in der Diskussion um KI in der Kriegsführung nicht nur um technische Innovation geht, sondern auch um grundlegende Fragen der Verantwortung und Ethik. Es geht um den Versuch, technologische Fortschritte mit den Prinzipien des humanitären Völkerrechts und der internationalen Normen in Einklang zu bringen. Dabei stellt sich die zentrale Frage, wie viel Autonomie wir Maschinen zugestehen sollten, und ob es moralisch vertretbar ist, Kriege auf der Basis von Entscheidungen zu führen, die nicht von Menschen, sondern von Algorithmen getroffen werden.

Wie beeinflussen autonome Waffensysteme und künstliche Intelligenz die moderne Kriegsführung und das internationale Recht?

Autonome Waffensysteme (AWS) und fortschrittliche Technologien wie Künstliche Intelligenz (KI) und maschinelles Lernen (ML) haben das Potenzial, die Kriegsführung zu revolutionieren und stellen eine bedeutende Herausforderung für das internationale humanitäre und völkerrechtliche System dar. Der technologische Fortschritt, der in der militärischen Robotik und bei Drohnentechnologien sichtbar ist, erfordert eine Neubewertung der bestehenden Normen und Vorschriften. Insbesondere Fragen zur Verantwortlichkeit, ethischen Implikationen und der Rolle des Menschen im militärischen Entscheidungsprozess sind von zentraler Bedeutung.

Autonome Waffensysteme zeichnen sich dadurch aus, dass sie ohne direkte menschliche Kontrolle agieren können, indem sie auf Grundlage vordefinierter Algorithmen oder durch selbstlernende Systeme Entscheidungen treffen. Diese Systeme, die in der Lage sind, militärische Ziele eigenständig zu identifizieren und zu bekämpfen, werfen grundlegende Fragen zur „bedeutenden menschlichen Kontrolle“ (MHC) auf. Die Diskussion über MHC beschäftigt sich mit der Frage, inwieweit der Mensch noch die Entscheidungsgewalt über solche Waffensysteme behalten sollte, um die Verantwortlichkeit und die Einhaltung von internationalem Recht zu gewährleisten.

Das Internationale Humanitäre Recht (IHL) stellt spezifische Anforderungen an militärische Handlungen, insbesondere in Bezug auf den Schutz von Zivilisten und die Unterscheidung zwischen Kämpfern und Nichtkämpfern. Angesichts der Automatisierung der Kriegsführung stellt sich die Frage, ob und wie diese Vorschriften auf autonome Waffensysteme anwendbar sind. Ein bedeutender Aspekt in dieser Debatte ist die Fähigkeit von KI-Systemen, militärische Ziele zu identifizieren und zu priorisieren, was möglicherweise zu Fehlentscheidungen führen kann, die internationale Normen wie das Verbot von unverhältnismäßigen Angriffen oder das Verbot von gezielten Angriffen auf Zivilisten verletzen.

Ein weiteres Problem ist die Transparenz von Entscheidungen, die von KI-Systemen getroffen werden. Während in traditionellen militärischen Operationen Menschen für Entscheidungen verantwortlich sind, ist es bei autonomen Systemen schwierig, nachzuvollziehen, wie eine Entscheidung getroffen wurde. Die mangelnde Erklärbarkeit der KI-Algorithmen stellt eine Herausforderung für die Überprüfung der Rechtmäßigkeit von Handlungen dar und könnte dazu führen, dass Staaten oder Organisationen unverantwortlich agieren, ohne Konsequenzen für ihre Handlungen zu befürchten.

Die militärische Nutzung von Künstlicher Intelligenz und autonomen Waffensystemen führt zu einem Wettlauf zwischen den Nationen, bei dem die schnelle Entwicklung von Technologien oft vor der Schaffung entsprechender gesetzlicher und ethischer Rahmenbedingungen erfolgt. Länder wie die Vereinigten Staaten, China und Russland investieren massiv in Forschung und Entwicklung von AWS, um strategische Vorteile zu erlangen. Gleichzeitig bleiben viele Fragen bezüglich der internationalen Regulierung solcher Systeme unbeantwortet.

Es gibt Initiativen, die sich für die Einführung von internationalen Abkommen zur Regulierung von AWS einsetzen, jedoch bleibt unklar, inwiefern ein solches System effektiv umgesetzt werden kann. Ein internationales Abkommen müsste nicht nur klare Grenzen für den Einsatz von AWS ziehen, sondern auch einen Mechanismus zur Überwachung und Durchsetzung von Rechtsnormen schaffen, der sich über nationale Grenzen hinweg erstreckt.

Die Frage nach der Bedeutung des Menschen im Entscheidungsprozess bleibt eine der zentralen ethischen Fragestellungen. Viele Experten sind der Ansicht, dass der Mensch trotz technologischem Fortschritt die letztliche Verantwortung für militärische Entscheidungen tragen sollte. In dieser Hinsicht stellt sich die Frage, ob autonome Waffensysteme überhaupt in der Lage sind, die moralischen und rechtlichen Komplexitäten von Kriegsentscheidungen zu erfassen, die der Mensch auf einer anderen, oft intuitiven Ebene beurteilen muss.

Außerdem muss berücksichtigt werden, dass der Einsatz von AWS nicht nur technische und ethische, sondern auch sicherheitspolitische Dimensionen hat. Die Möglichkeit, dass Staaten oder nichtstaatliche Akteure diese Technologien für subkonventionelle Kriegsführung oder Terrorismus einsetzen, stellt eine erhebliche Bedrohung für die globale Sicherheit dar. Gerade die Frage, wie diese Technologien in Konflikten eingesetzt werden könnten, die nicht den klassischen Kriegsgesetzen unterliegen, ist eine der dringlichsten Herausforderungen.

Neben der Entwicklung internationaler Normen sollte auch der Aspekt der Entwicklung von Gegenmaßnahmen nicht unterschätzt werden. Die fortschreitende Entwicklung von Cyberangriffen und elektronischen Kriegsführungstechniken könnte dazu führen, dass autonome Systeme gehackt und für gegnerische Zwecke umprogrammiert werden. Daher sind robuste Sicherheitsprotokolle und die ständige Überprüfung der Funktionalität von KI-gesteuerten Systemen unerlässlich, um die Risiken einer solchen technologischen Revolution zu minimieren.

Es ist auch wichtig, dass nationale und internationale Organisationen eng zusammenarbeiten, um den möglichen Missbrauch von autonomen Waffensystemen zu verhindern. Dies erfordert nicht nur technologische Lösungen, sondern auch politische Entschlossenheit und internationale Zusammenarbeit, um eine neue Ära der Kriegsführung zu gestalten, die nicht nur auf technologischen, sondern auch auf ethischen Grundlagen ruht.

Wie beeinflusst der Einsatz unbemannter Systeme die Prinzipien des gerechten Krieges?

Der Einsatz von unbemannten Waffensystemen im Krieg stellt eine der bedeutendsten ethischen Herausforderungen unserer Zeit dar. Besonders in der Diskussion um den gerechten Krieg (jus in bello) stellt sich die Frage, ob und wie diese Systeme mit den traditionellen moralischen und rechtlichen Normen der Kriegsführung in Einklang zu bringen sind. Jus in bello fordert, dass die Kriegsregeln sowohl für die Streitkräfte als auch für die Zivilisten gelten, unabhängig davon, ob sie Aggressoren oder Opfer sind. Doch wie weit lässt sich dieses Prinzip mit der Verwendung unbemannter Systeme vereinbaren, wenn diese Systeme immer weiter in den militärischen Alltag integriert werden?

Die zunehmende Verbreitung von KI-unterstützten Waffensystemen in den Armeen verschiedener Länder hat zur Entstehung der Kampagne „Stop Killer Robots“ geführt, die vor den moralischen und ethischen Gefahren dieser Technologien warnt. Jai Galliott argumentiert, dass der Einsatz unbemannter Systeme mit unethischen Entscheidungsprozessen verbunden ist und die Hemmschwelle für das Töten senkt, was die moralische Integrität der Kriegsführung gefährdet. In der Geschichte hat sich oft gezeigt, dass ethisches Verhalten im Krieg angesichts militärischer Notwendigkeiten oder wenn das Überleben des Staates auf dem Spiel stand, durch pragmatische, praktisch orientierte Entscheidungen ersetzt wurde. Diese Realität könnte auch in der Gegenwart wieder zutreffen, besonders angesichts der Fortschritte in der Militärtechnologie.

Ein Beispiel für diese Entwicklung zeigt sich in der Haltung der indischen Streitkräfte, die den Einsatz von KI als unterstützendes Element im Entscheidungsprozess favorisieren. Angesichts des technologischen Fortschritts und der Bedrohung durch China könnte sich die Notwendigkeit ergeben, die menschliche Entscheidungsfindung im OODA-Kreis (Beobachten, Orientieren, Entscheiden, Handeln) durch KI zu ersetzen. KI, insbesondere maschinelles Lernen, kann große Mengen komplexer Daten mit einer Geschwindigkeit verarbeiten, die der menschliche Verstand nicht erreichen kann. Dies könnte in Szenarien, in denen schnelle militärische Reaktionen erforderlich sind, zu einem enormen Vorteil werden. Die Bedenken, dass dies gegen die Tradition des „Dharmayuddha“ in der indischen Militärdoktrin verstößt, könnten angesichts des militärischen Drucks in den Hintergrund treten.

Die Debatte über den Einsatz von KI in militärischen Systemen teilt die Meinungen in zwei Lager: Die Pragmatiker und die Idealisten. Die Pragmatiker vertreten die Ansicht, dass der Zweck die Mittel heiligt, und sehen die Effizienz und Effektivität der KI als notwendig an, um die Überlebensfähigkeit im modernen Krieg zu sichern. Die Idealisten hingegen glauben, dass die Menschheit in der Lage ist, durch ethische Diskussionen und einen verantwortungsvollen Umgang mit Technologie eine Lösung zu finden, die auch den moralischen Grundsätzen der Kriegsführung gerecht wird. Angesichts dieser unterschiedlichen Sichtweisen muss ein Mittelweg gefunden werden, um die Technologien sinnvoll und ethisch zu integrieren.

Die Kriegsmaschinen der Zukunft werden zweifellos autonome, nicht-menschliche Entitäten sein, die auf künstlicher Intelligenz (KI) und möglicherweise sogar auf künstlicher Superintelligenz (ASI) basieren. ASI bezeichnet Maschinen, deren kognitive Fähigkeiten in allen Bereichen die des Menschen übertreffen. Die größte Herausforderung bei der Entwicklung von ASI-Kriegsmaschinen ist nicht die Frage der Empfindungsfähigkeit, sondern die Schaffung eines normativen Rahmens, der das Verhalten dieser Maschinen regelt. Die ethischen und moralischen Standards, die für menschliche Soldaten gelten, lassen sich nicht eins zu eins auf Maschinen übertragen, die aus nicht-kohlenstoffhaltigen Entitäten bestehen. Die Unsicherheit darüber, wie solche Maschinen in verschiedenen Kriegsszenarien denken und handeln werden, ist eine erhebliche Gefährdung.

Die Integration von KI in militärische Entscheidungssysteme könnte jedoch einige dieser Unsicherheiten mindern. Wenn Menschen mit Maschinen zusammenarbeiten, könnte eine „Fusion“ von bekannten und unbekannten Elementen entstehen, die den Umgang mit unvorhersehbaren Situationen erleichtern würde. Ein solcher integrativer Ansatz könnte helfen, die entscheidenden ethischen und moralischen Dilemmata zu entschärfen, die der Einsatz autonomer Kriegsmaschinen mit sich bringt.

Doch auch die praktischen Hürden sind nicht zu unterschätzen. In einem Bericht des Friedensforschungsinstituts Oslo (PRIO) aus dem Jahr 2021 werden konkrete Schritte zur Kontrolle von KI-unterstützten Kriegsmaschinen vorgeschlagen. Insbesondere wird betont, dass die Bediener dieser Systeme sowohl in technischen als auch in ethischen Fragen gründlich geschult werden müssen. Es wird ein resilienter Feedback-Loop zwischen den Software-Designern, Herstellern, Entscheidungsträgern und den Nutzern gefordert, um sicherzustellen, dass ethische und rechtliche Standards gewahrt bleiben.

Ein weiterer wichtiger Aspekt ist die Frage, inwieweit das internationale Recht, insbesondere das Internationale humanitäre Recht (IHL), auf den Einsatz unbemannter Kriegsmaschinen anwendbar ist. Einige Kritiker argumentieren, dass das IHL nicht ausreichend auf die Besonderheiten autonomer Waffensysteme reagiert und dass neue, spezifische Regelungen notwendig sind. Besonders die Nutzung von Drohnen zur gezielten Tötung von Terroristen stellt einen Graubereich dar, in dem die klassischen Normen des IHL möglicherweise nicht ausreichen.

Letztlich hängt die Zukunft des Einsatzes von KI im Krieg nicht nur von technologischen Entwicklungen ab, sondern auch von den politischen Entscheidungen und der internationalen Zusammenarbeit. Der chinesische Standpunkt beispielsweise betont, dass es zunächst eine klare und einheitliche Definition für letale autonome Waffensysteme (LAWS) geben muss, um den Einsatz solcher Systeme im Einklang mit dem internationalen Recht zu regeln. China hat in der Vergangenheit Vorschläge zur Definition von LAWS gemacht, wobei die Lethalität, die Autonomie, die Unmöglichkeit der Abschaltung und andere Merkmale zur Diskussion standen.

Die zunehmende Entwicklung und der Einsatz von KI in der Kriegsführung werfen nicht nur technische, sondern auch tiefgreifende moralische und rechtliche Fragen auf, die die Weltgemeinschaft weiterhin beschäftigen werden. Ein kritischer, reflektierter Umgang mit diesen Technologien ist von entscheidender Bedeutung, um sicherzustellen, dass der Einsatz unbemannter Waffensysteme nicht zu einer weiteren Erosion der ethischen Standards in der Kriegsführung führt.

Wie beeinflusst Künstliche Intelligenz die Zuverlässigkeit und Vorhersehbarkeit in militärischen Systemen?

Die Identifikation von Objekten in Bildern, wie etwa das Erkennen von Tieren oder anderen Objekten, ist ein zentrales Thema in der Entwicklung autonomer Systeme. Um ein bestimmtes Objekt zu identifizieren, muss ein System mit Millionen von Bildern dieses Objekts trainiert werden. Ebenso entscheidend für die Leistung eines Systems ist die Qualität der verwendeten Daten. Wenn der Trainingsdatensatz nicht repräsentativ ist, kann das System nicht wie gewünscht funktionieren, schlecht performen oder bestehende Vorurteile verstärken. In einem militärischen Kontext, wie etwa in Kriegsgebieten, ist der Zugang zu qualitativ hochwertigen Trainingsdaten eine große Herausforderung. Fehlen diese, kann dies dazu führen, dass autonome Systeme unvorhersehbar oder auf eine komplexe Weise ausfallen.

Ein weiteres Problem ergibt sich aus der Tatsache, dass die Entscheidungsfindung autonomer Systeme oft unvorhersehbar ist. Dies wurde beispielhaft 1983 beobachtet, als ein Fehler in einem Frühwarnsystem für Raketenangriffe dazu führte, dass die reflektierenden Sonnenstrahlen von Wolken als eingehende Raketen fehlinterpretiert wurden. Der sowjetische Oberst Stanislav Petrov entschied sich jedoch, dem System nicht zu vertrauen und verhinderte so eine potenzielle nukleare Katastrophe. In einem moderneren Vorfall führte ein Fehler im Sensor eines autonomen Fahrzeugs dazu, dass ein Mensch starb, weil der Wagen einen Lastwagen nicht korrekt von einem Anhänger auf der Straße unterscheiden konnte.

Die Komplexität dieser Systeme wird noch deutlicher, wenn man bedenkt, dass Deep-Learning-Algorithmen, die auf tiefen neuronalen Netzwerken basieren, wie eine "Black Box" arbeiten. Die Eingabedaten und Ausgabedaten sind sichtbar, aber der Rechenprozess, der zu den Ergebnissen führt, ist für den Menschen schwer nachvollziehbar. Dies bedeutet, dass es für die Menschen schwierig ist, nachzuvollziehen, wie ein System zu einer bestimmten Schlussfolgerung oder Vorhersage gelangt ist. Solche undurchsichtigen Prozesse stellen eine Gefahr dar, besonders in komplexen und unsicheren Szenarien wie den Grenzgebieten oder Konfliktzonen, da sie die Kontrolle und Vorhersagbarkeit beeinträchtigen können.

Ein weiteres Problem ist die Zuverlässigkeit autonomer Systeme. Während Menschen in der Lage sind, Muster auf einer abstrakten Ebene zu erkennen, können KI-Systeme nur Korrelationen zwischen einzelnen Bildpunkten ermitteln. Ein Gesichtserkennungssystem könnte beispielsweise ein Bild eines Bildes für das Originalgesicht halten und dennoch eine korrekte Identifikation liefern. Studien haben gezeigt, dass Bilder, die für den Menschen unsichtbar sind, von solchen Systemen falsch erkannt werden können, mit einer über 99%igen Zuversicht in die falsche Identifikation. Solche Schwächen könnten von Gegnern ausgenutzt werden, die das System täuschen könnten, was die Zuverlässigkeit und Effektivität des Systems gefährdet.

In einer praktischen Anwendung, wie der DARPA Cyber Grand Challenge 2016, in der autonome Systeme miteinander um den "Flagge erobern" Wettbewerb kämpften, gab es weitere Beweise für die Instabilität autonomer Systeme. Ein System hörte mitten im Wettbewerb auf, während ein anderes beschädigte Teile reparierte, aber das System, das es schützen sollte, außer Betrieb setzte. Diese Vorfälle verdeutlichen, dass diese Technologien noch in einem frühen Entwicklungsstadium stecken und nicht ausgereift genug sind, um in sicherheitskritischen Szenarien, wie militärischen Konflikten oder Kriegen, eingesetzt zu werden.

Die Integration von KI in militärische Systeme könnte zudem die geopolitische Stabilität und das strategische Gleichgewicht verändern. Das Konzept der "Mutual Assured Destruction" (MAD), das auf der Theorie beruht, dass ein potenzieller Angreifer von einem Atomangriff absehen wird, weil der Verteidiger sicherstellen kann, dass ein Vergeltungsschlag folgt, könnte durch die Einführung autonomer Systeme ins Wanken geraten. KI könnte die Fähigkeit verbessern, Bedrohungen schneller zu erkennen und darauf zu reagieren, was zu einer beschleunigten Entscheidungsfindung führen könnte. Dies könnte dazu führen, dass die Überlebensfähigkeit von Vergeltungsschlägen, wie sie auf Nuklearsystemen beruhen, in Frage gestellt wird, was zu einer Erhöhung des Risikos eines Erstschlags führen könnte.

Die Geschwindigkeit, mit der Entscheidungen getroffen und Aufgaben ausgeführt werden, könnte durch den Einsatz von KI auf Millisekunden reduziert werden, was sowohl die militärische Effizienz steigern als auch die Gefährdung durch feindliche Angriffe erhöhen könnte. Gleichzeitig könnte die zunehmende Komplexität der Systeme zu einer wachsenden Unsicherheit führen, die in einer destabilisierten militärischen Landschaft resultieren könnte, in der die traditionellen Mechanismen der Abschreckung an Wirkung verlieren.

Trotz des Potenzials zur Verbesserung von Effizienz und Schnelligkeit in militärischen Operationen bleibt die Zuverlässigkeit und Vorhersagbarkeit von KI-Systemen ein ungelöstes Problem. Insbesondere in Krisenzeiten, in denen schnelle Entscheidungen gefragt sind, könnte die Unvorhersehbarkeit von autonomen Systemen zu verheerenden Fehlern führen. Diese Risiken müssen sorgfältig abgewogen werden, um sicherzustellen, dass die Technologie nicht unbeabsichtigt zu einer Eskalation von Konflikten beiträgt.