Für einen europäischen Weg bei der Nutzung von KI in der Verteidigung

Von Nora Bossong, Ansgar Rieks und Wolfgang Koch

Deutschland und Europa stehen außen- und sicherheitspolitisch vor großen Herausforderungen. Global erleben wir die Errichtung von Drohkulissen, auch militärischer Art, die an einen neuen Kalten Krieg denken lassen – wobei ein solcher nicht mehr bipolar, sondern multipolar sein könnte. Der EU-Außenbeauftragte, Josep Borrell, hat darauf kürzlich in klaren Worten hingewiesen und entsprechende Konsequenzen eingefordert: Europa müsse wieder lernen, die Sprache der Macht zu sprechen, auch militärisch, wenn es auf der Weltbühne noch eine Rolle spielen und seinen Einfluss geltend machen wolle. „Uns gefällt die Welt von Kant, aber wir werden uns darauf einstellen, in einer Welt von Hobbes zu leben“, so Borrell.

Zur neuen Realität gehört weiterhin, dass die Rüstungsaktivitäten weltweit zunehmen, wobei der Fokus neben dem eher symbolträchtigen Streben nach mehr Atomwaffen (siehe China) vor allem auf der Anwendung neuer Technologien und hier insbesondere der Künstlichen Intelligenz (KI) liegt. Längst finden wir KI nicht nur in den militärischen Dimensionen Land, Luft, See und Weltraum, sondern auch im Cyber- und Informationsraum; Hyperschallflugkörper, Unterwasserkriegsführung oder die zivile und militärische Luftfahrt sind nur einige Anwendungsbeispiele.

Der Einsatz Künstlicher Intelligenz im Vereidigungsbereich wird von kritischen Diskussionen begleitet, was richtig ist. Aber wie immer kommt es auch bei der KI primär darauf an, wie man eine Technologie anwendet. Das politisch aufgeladene Schlagwort der „Autonomen Waffensysteme“, also Waffen, die vermeintlich ohne jegliches menschliches Zutun Ziele definieren und angreifen, hat sich in diesem Zusammenhang festgesetzt und verselbständigt. Doch ist diese Begrifflichkeit bewusst irreführend, da der Einsatz von KI in Waffensystemen derzeit allenfalls im Rahmen teilautomatisierter Anwendungen erfolgt – und zu keinem Zeitpunkt der menschlichen Kontrolle entzogen ist.

Die deutsche und auch europäische Position in diesem Punkt ist eindeutig: Es gibt in der Sicherheits- und Verteidigungspolitik keine ernstzunehmenden Akteure, die sich für den umfassenden Einsatz autonomer Systeme aussprechen. Wenn derzeit von KI in der Verteidigung die Rede ist, geht es darum, bestimmte Prozesse, insbesondere bei der Aufklärung und Datengenerierung, teilautomatisiert durchzuführen. Was dann mit diesen Informationen geschieht beziehungsweise welche Konsequenzen sie nach sich ziehen, obliegt der Entscheidung der Einsatzkräfte, also des Menschen.

„KI in der Verteidigung“ und „Autonome Waffensysteme“ dürfen somit nicht gleichgesetzt werden. Ersteres dient als Unterstützungs- und Entscheidungswerkzeug, um immer größer werdende Datenmengen umfassend auswerten zu können – und ist somit eine wichtige Entscheidungshilfe. Letzteres ist ein militärisches Szenario, wogegen sich die Bundesregierung und auch die Bundeswehr zusammen mit zahlreichen europäischen und auch außereuropäischen Partnern zu Recht aussprechen – konkret etwa im Rahmen der Genfer UN-Verhandlungen zur Bannung letaler autonomer Waffensysteme.

Viele Menschen haben verständlicherweise Angst vor „intelligenten Maschinen“, die außerhalb der menschlichen Kontrolle ein vermeintliches Eigenleben entwickeln. Deshalb ist es wichtig, KI – wie alle neuen Technologien – kritisch zu reflektieren und zu diskutieren. Doch sollten wir darauf verzichten, durch falsche Begrifflichkeiten und Zusammenhänge Emotionen hervorzurufen, die bei Menschen außerhalb der Informatik oder des jeweiligen Anwendungsbereichs zu falschen Assoziationen führen. Auch Quantencomputer besitzen theoretisch ein vergleichbares Potential, auf moralisch fragwürdige Art eingesetzt zu werden. Aber dennoch mutet „Quantum Computing“ weniger bedrohlich und unbeherrschbar an als „künstliche Intelligenz“, „maschinelles Lernen“ oder „technische Automation“ im Verteidigungssegment. Die Verantwortung im Umgang mit diesen und anderen Technologien ist jedoch dieselbe.

Tatsächlich ist die Frage der Anwendung von KI in der Verteidigung ebenso komplex wie breit diskutiert. Renommierte deutsche Wissenschaftler und KI-Experten sprachen sich jüngst dafür aus, KI ausschließlich für zivile Zwecke zu nutzen; im militärischen Bereich dürfe sie nicht zur Anwendung kommen. Die neue Bundesregierung wurde aufgefordert, Waffensysteme zu ächten, die „in ihren kritischen Funktionen autonom sind, also Ziele ohne menschliches Zutun auswählen und bekämpfen“. Hinter der Initiative der Wissenschaftlerinnen und Wissenschaftler steht das amerikanische „Future of Life Institute“ mit prominenten Unterstützern wie dem amerikanischen Tech-Unternehmer Elon Musk.

Die Forderung nach einer generellen Ächtung von KI in der Verteidigung klingt vordergründig vernünftig und dürfte in der deutschen Gesellschaft nicht ungehört bleiben. Was nicht erwähnt wird, sind die daraus resultierenden Konsequenzen für die deutsche und damit auch europäische und transatlantische Verteidigungsfähigkeit. Ein Rückzug aus der Technologie hätte zur Folge, dass sich Deutschland als militärisch handlungsfähiger Akteur aus der Weltpolitik verabschiedet – also exakt das Gegenteil davon, was der eingangs zitierte EU-Außenbeauftragte kürzlich eingefordert hat.

Um Missverständnisse zu vermeiden: Es geht nicht darum, Deutschland zum Vorreiter bei der Automatisierung von Waffensystemen zu machen. Im Gegenteil: Abrüstungs- und Regulierungsverhandlungen, zum Beispiel im Rahmen der Vereinten Nationen, sollten weiter mit Nachdruck vorangetrieben werden. Eine entsprechende Zielsetzung findet sich auch im Koalitionsvertrag der neuen Bundesregierung verankert. Dabei muss stets mitbedacht werden, dass Deutschland sich aus einer Position der Beteiligung und Einbeziehung moderner Technologie weitaus wirksamer in Abrüstungs- und Regulierungsverhandlungen einbringen kann, als auf strikte Ablehnung zu setzen. Sie wäre außerdem im globalen Maßstab kaum mehr als eine symbolische Geste.

Dazu kommt: Ächtet man KI in Waffensystemen, ächtet man die Abwehr und Verteidigung mit. Bedrohungen selbstbewusst und wirkungsvoll entgegentreten kann nur, wer sie versteht und selbst über adäquate Fähigkeiten verfügt. Es geht aber nicht nur um die Gefahr, sich militärisch und technologisch abzukoppeln. Wer mitgestaltet, entscheidet auch mit, wie die Dinge umgesetzt werden, das heißt, kann seine eigenen Wertvorstellungen in den Diskurs einbringen.

Wie also sollte sich Deutschland beim Thema der KI in der Verteidigung positionieren?

Eine differenzierte Herangehensweise berücksichtigt neben technologischen und sicherheitspolitischen Aspekten zugleich rechtliche und ethische sowie operative Aspekte umfassend. Ziel sollte die Entwicklung eines normativen Rahmens sein, der bei der Anwendung von KI – auch in Waffensystemen – die menschliche Kontrolle sowie die Einhaltung ethischer Standards im Sinne unserer europäischen Werte gewährleistet – und zugleich den sicherheitspolitischen und operativen Realitäten des 21. Jahrhunderts Rechnung trägt.

Zu Letzteren gehört, dass Deutschland und Europa im Rahmen des nordatlantischen Bündnisses technologisch in der Lage sein müssen, Angriffe mit KI-unterstützten Waffensystemen abzuwehren. Der generelle Ausschluss der KI hätte eine unverantwortbare strukturelle militärische Unterlegenheit zur Folge und würde operativ die Gefahr von Kollateralschäden aufgrund mangelnder Präzision bei der Zielerfassung erhöhen. Der militärische Einsatz von KI ist vor diesem Hintergrund nicht nur ethisch gerechtfertigt, sondern sogar geboten.

Wie ein solcher Prozess zur verantwortlichen Anwendung von KI in der Verteidigung konkret aussehen könnte, lässt sich derzeit am potentiell größten europäischen Verteidigungsvorhaben des 21. Jahrhunderts, dem „Future Combat Air System“ (FCAS), ablesen. Flankierend zur Technologieentwicklung wurde hier 2019 ein Gremium ins Leben gerufen, das sich unter Einbeziehung unterschiedlicher Akteure aus den Bereichen Sicherheit und Verteidigung, Forschung und Wissenschaft, Think Tanks sowie Kirchen und Gesellschaft, mit der Frage befasst, welche ethischen Leitplanken in den Designprozess eines FCAS einfließen müssen, um die menschliche Gesamtkontrolle über das System garantieren zu können.

In diesem Rahmen und um den Einsatz von KI in einem FCAS möglichst realitätsnah zu erfahren, wird derzeit ein spezieller Demonstrator entwickelt, mit dem konkret die Anwendung von KI in verschiedenen Szenarien erfahrbar gemacht wird. Dies geschieht auf Grundlage KI-basierter Assistenz und im Zusammenhang konkreter operativer Bekämpfungsentscheidungen. Diese Szenarien sind realitätsnah und eng mit der Bundeswehr abgestimmt. Ziel ist es, so ein realitätsnahes Bild von den Möglichkeiten, Grenzen und ethischen Implikationen von KI in Verteidigung in einem ganz konkreten Anwendungsfall zu bekommen. Die daraus resultierenden Erkenntnisse sollen anschließend in den Designprozess eines FCAS einfließen.

Diese Herangehensweise ist ein Novum in einem großen Rüstungsvorhaben und könnte ein Vorbild auch für andere große europäische Verteidigungsvorhaben werden – und einen Weg bei der Beantwortung der moralisch wie auch sicherheitspolitisch und operativ schwierigen Frage nach vertretbaren Richtlinien für die Anwendung von KI in der Verteidigung weisen, ohne dabei die deutsche, europäische und transatlantische Verteidigungsfähigkeit und sicherheitspolitische Verantwortung zur Disposition zu stellen.


Nora Bossong ist Schriftstellerin und Mitglied im Zentralkomitee der deutschen Katholiken.
Generalleutnant Dr. Ansgar Rieks ist Stellvertreter des Inspekteurs der Luftwaffe und Mitglied im Zentralkomitee der deutschen Katholiken.
Prof. Dr. Wolfgang Koch ist Physiker und Chief Scientist des Fraunhofer FKIE. Die Autoren engagieren sich in der „AG Technikverantwortung für ein FCAS“.