Autonome Waffen und die Politik

Die Haltung von Bundesregierung und Bundestag zum Themenkomplex Autonome Waffen

Von Tobias Pflüger

Autonome Waffensysteme, die selbstständig agieren und Menschen töten, gelten zu Recht als Horrorvorstellung. Autonome Waffen sind „politisch inakzeptabel und moralisch abstoßend“, sagt UN-Generalsekretär António Guterres. Und auch die Bundesregierung hat in ihrem Koalitionsvertrag festgelegt: „Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten.“

Doch die Politik der Bundesregierung aus CDU/CSU und SPD ist eine andere: Die Bundeswehr hat längst ein Auge darauf geworfen, wie Kameras, Sensoren, Datenverarbeitung und Künstliche Intelligenz die Kriegsführung verändern können. Automatisierter, schneller und effizienter soll die Kriegsführung werden – auch bei der Bundeswehr.

Ein erster Schritt sollte die Einführung bewaffneter Drohnen werden. Daraus wird zwar vorerst nichts – die SPD hat Ende 2020 mehr Zeit gefordert, weil die Partei intern in dieser Frage gespalten ist. Aber vom Tisch sind die Pläne damit nicht, die Bundeswehr hält weiter daran fest. Wie schon in der vom Verteidigungsministerium 2020 initiierten Drohnendebatte behauptet die Bundeswehr weiter, sie brauche bewaffnete Drohnen ausschließlich zum Schutz der Soldatinnen und Soldaten im Einsatz.

Totgeschwiegen wird dabei, dass es längst weitergehende Planungen gibt. So ist das Future Combat Air System (FCAS), das europäische Kampflugzeug der nächsten Generation, als integriertes System geplant, das auch über Satelliten und Drohnen verfügt. Beim FCAS geht es nicht nur darum, den Eurofighter zu ersetzen, sondern auch um „die Entwicklung einer Technologie zumindest teilautonomer bewaffneter Drohnen“, wie die Stiftung Wissenschaft und Politik schreibt.

Teil des Future Combat Air Systems soll auch die von Anfang an bewaffnet geplante Eurodrohne werden, für die zusätzliche 232 Millionen Euro im nächsten Haushalt veranschlagt sind. „Die unbemannten Systeme werden die Fähigkeiten des gesamten Projektes entscheidend prägen und dessen Überlebens- und Durchsetzungsfähigkeit gewährleisten“, schrieb das Bundesverteidigungsministerium 2018 auf seiner Homepage. Das FCAS werde „sowohl bereits existierende als auch zukünftige bemannte und unbemannte Komponenten in einem interoperablen Verbund vereinen. Genannt seien hier beispielsweise der Eurofighter und das Drohnenprojekt Eurodrohne“.

Auch ein Bericht des Ausschusses für Auswärtige Angelegenheiten, Verteidigung und Streitkräfte des französischen Parlaments über das FCAS von 2020 verdeutlicht, dass Künstliche Intelligenz (KI) und Automatisierung hier zentral sind, denn sonst könnte sich die französische Armee künftigen Gegnern „in der Situation (…) des besten Schachspielers der Welt gegenübersehen, der nach allgemeiner Ansicht heute keinen einzigen Satz gegen eine künstliche Intelligenz mehr gewinnen könnte“.

Die Regierungen Frankreichs, Deutschlands und Spaniens wollen „Europa zu einer der führenden Mächte in autonomer Kriegsführung entwickeln“, warnt der KI-Forscher Jakob Foerster von der Universität Toronto im Tagesspiegel. „Autonome Kriegsführung ist keine ferne Dystopie. KI und damit verbundene, bisher kaum vorstellbare technologische Möglichkeiten, entwickeln sich rasant.“

Mit der „Strategie Künstliche Intelligenz“ treibt die Bundesregierung diese Entwicklung selbst voran – und zwar explizit auch im militärischen Bereich: „KI ist integraler Bestandteil wesentlicher Rüstungsprojekte, welche auch im europäischen Kontext umgesetzt werden und somit zum Erhalt und zur Förderung europäischer, technologischer Exzellenz beitragen. (…) KI dient mit Blick auf die nationale und internationale technologische Entwicklung im Rüstungsbereich der Sicherstellung der für die Landes- und Bündnisverteidigung künftig erforderlichen Fähigkeiten.“ 1

Auch die Bundeswehr hat Künstliche Intelligenz und ihren Einsatz in Waffensystemen längst für sich entdeckt. Bereits heute setzt die Bundeswehr laut Antwort der Bundesregierung vom 8. Dezember 2020 Künstliche Intelligenz ein bei der Gesundheitsversorgung, bei Sprachübersetzungen, aber vor allem im Lagezentrum für den Cyber- und Informationsraum zur „Erstellung eines fusionierten Lagebildes“ und künftig bei der „zivil-militärischen, ressortübergreifenden Krisenfrüherkennung bei der Analyse von Massendaten und für Prognosen zum Einsatz“. Generell gelte: „Ziel ist es, mögliche Innovationsgewinne, wie etwa einen effizienteren Einsatz von Personal oder die Erhöhung der Reaktionsgeschwindigkeit durch Beherrschbarkeit von immer größeren Datenmengen und Komplexitäten, zu erreichen.“

In dem Positionspapier „Künstliche Intelligenz in den Landstreitkräften“ des Amtes für Heeresentwicklung geht die Bundeswehr noch weiter. Hier werden die vielen neuen Möglichkeiten gelobt, KI in bestehenden oder neuen Waffensystem einzusetzen. „Alle derzeit vorliegenden Erkenntnisse deuten darauf hin, dass mit Nutzbarmachung von KI-Methoden und KI-Verfahren in den Landstreitkräften deren Effizienz und Effektivität deutlich gesteigert werden können“, heißt es dort.

Das werde die Kriegsführung verändern: „Ein zentrales Element der zukünftigen Gefechtsführung ist die Kombination klassischer Gefechtsführung mit Wellen von Cyberangriffen und Angriffen durch große Mengen automatisiert und autonom gesteuerter Systeme. Dieser Ansatz wird derzeit in der NATO unter dem Begriff ‚Hyperwar‘ diskutiert. Die KI ist hier sowohl ‚Enabler‘ für den Einsatz automatisiert und autonom gesteuerter Systeme als auch für die Beschleunigung des Führungsprozesses durch den gezielten Einsatz KI-basierter Entscheidungsunterstützungssysteme.“

Das Positionspapier fordert „Taktische unbemannte Flugsysteme“ (TaUAS) für Aufgaben „von der Aufklärung über Sperren bis hin zu offensiven Wirkmitteln“. Der Trick dabei ist, dass die Bundeswehr diese nicht als Letale Autonome Waffensysteme (LAWS) einstuft, sondern als „automatische“ Waffensysteme. LAWS sind nach dieser Definition nur solche, die „allein gegen Personen“ und „ohne jegliche menschliche Einflussnahme“ agieren. Eine ähnliche Argumentation brachte die Bundesregierung bei den Verhandlungen über ein Verbot Tödlicher Autonomer Waffensysteme in Genf vor: Die dort von deutschen Diplomaten vorgetragene Definition schließt unter anderem Lernfähigkeit und „Eigenwahrnehmung“ ein. Damit wird die Latte so hoch gelegt, dass Waffensysteme der Bundeswehr mit künstlicher Intelligenz noch lange nicht die Definition eines autonomen Waffensystems erfüllen werden.

De facto torpediert die Bundesregierung also das Ziel, autonome Waffensysteme zu ächten. Dabei wäre ein internationales Verbot Autonomer Waffensysteme extrem wichtig: „Nicht zuletzt aufgrund der großen Dynamik der technologischen Entwicklung in den Bereichen Robotik und künstlicher Intelligenz ist es von herausragender Bedeutung, AWS-bezogene Mechanismen der präventiven Rüstungskontrolle zu etablieren“, warnt der Bericht des Ausschusses für Bildung, Forschung und Technikfolgenabschätzung des Bundestages vom 21. 10. 2020. Derzeit gebe es noch ein „Fenster von Möglichkeiten“, das sich aber „mit fortschreitender technologischer Entwicklung und der kontinuierlichen Integration autonomer Funktionen in Waffensysteme aller Art“ schließe.

Es braucht also gerade jetzt entschiedene Anstrengungen, um die Verhandlungen in Genf zum Abschluss zu bringen und ein weltweites Verbot Letaler Autonomer Waffensysteme zu vereinbaren. Genau wie bei Antipersonenminen und Streumunition lässt sich so ein Verbot allerdings wohl nur noch erreichen, wenn es großen zivilgesellschaftlichen Druck von außerhalb der UN-Strukturen gibt.

Anmerkung

1 Deutscher Bundestag Drucksache 19/2509, Unterrichtung durch die Bundesregierung, Strategie Künstliche Intelligenz der Bundesregierung – Fortschreibung 2020

Tobias Pflüger ist Verteidigungspolitischer Sprecher der LINKEN im Bundestag und stellvertretender Parteivorsitzender.

Aus: Friedensforum 02/2021, https://www.imi-online.de/2021/03/04/autonome-waffen-und-die-politik/