FCAS – Maßstab für zukünftige Projekte

An interview by Dr. Ulrike Franke (ECFR) and General Gerald Funke (German MoD) on AI and Defence and the responsible use of AI in a FCAS

Portrait Dr. Ulrike-Franke
Dr. Ulrike Franke ist Policy Fellow beim European Council on Foreign Relations (ECFR). Sie arbeitet zu Fragen der deutschen und europäischen Sicherheits- und Verteidigungspolitik, insbesondere zum Einfluss neuer Technologien (Drohnen, künstliche Intelligenz) auf die Kriegsführung. Sie ist Teil des Teams, das den „Sicherheitshalber“ Podcast produziert. Dr. Franke studierte in Frankreich, Großbritannien und der Schweiz und hat einen Doktor in Internationalen Beziehungen von der Universität Oxford, für den sie 2019 den John McCain Dissertation Award der Münchener Sicherheitskonferenz erhielt.
Portrait von General Dipl.-Ing. Gerald Funke
Brigadegeneral Dipl.-Ing. Gerald Funke ist derzeit Unterabteilungsleiter in der Abteilung Planung und Beauftragter FCAS im Bundesministerium der Verteidigung. Nach dem Eintritt in die Bundeswehr im Jahr 1983 und einem Studium der Elektrotechnik hat er wechselnde Verwendungen in der Luftwaffe, der Streitkräftebasis, dem Einsatzführungskommando der Bundeswehr und im Bundesministerium der Verteidigung mit den Schwerpunkten Technik/Logistik und Planung durchlaufen.

Der Begriff „FCAS“ gelangt mehr und mehr in den Sprachschatz der sicherheitspolitischen Community in Europa. Das in französisch-deutsch-spanischer Kooperation verantwortete größte und ambitionierteste europäische Verteidigungsprogramm der kommenden Jahrzehnte nimmt zunehmend an Fahrt auf. wt sprach mit Frau Dr. Ulrike Franke und Brigadegeneral Dipl.-Ing. Gerald Funke, derzeit Unterabteilungsleiter in der Abteilung Planung und Beauftragter FCAS im Bundesministerium der Verteidigung, über die gemeinsam von Airbus und dem Fraunhofer-Institut entwickelte Initiative der „Arbeitsgemeinschaft Technikverantwortung“, mit der systematisch die Entwicklung eines FCAS begleitet werden soll.

wt: Frau Dr. Franke, Herr General Funke, Sie beide sind Mitglied der FCAS AG Technikverantwortung. Was war Ihre Motivation, der Gruppe beizutreten? Was soll die Gruppe erreichen?

Dr. Franke: Ich begrüße den Ansatz der Gruppe, die Diskussion über Autonomie und KI-unterstützte Fähigkeiten in FCAS frühzeitig zu führen und in die Entwicklung des Projektes miteinzubinden. Zu häufig findet die sozialwissenschaftliche Bewertung neuer Technologien weit weg von denjenigen statt, die sie einsetzen und bauen, oder sie passiert zu spät, wenn neue Anwendungsarten bereits eingeführt sind.

Ich bin der AG Technikverantwortung beigetreten, weil ich diesen Ansatz richtig finde und es auch für meine Forschung hilfreich ist, die Auseinandersetzung mit Menschen zu suchen, die zu dem Thema aus anderen Richtungen kommen. Ich bin keine Philosophin oder Ethikexpertin, sondern befasse mich mit Fragen internationaler Sicherheit. Dieser Bereich wird oft gegenüber Ethikfragen vernachlässigt, obwohl sicherheitspolitische Bedenken in der internationalen Zusammenarbeit möglicherweise eine entscheidendere Rolle spielen könnten.

General Funke: Als zuständiger Unterabteilungsleiter in der Abteilung Planung des BMVg für Vorgaben zur zukünftigen Fähigkeitsentwicklung der Bundeswehr, aber auch in meiner Funktion als Beauftragter des BMVg für das FCAS-Projekt bin ich der Firma Airbus und der Fraunhofer-Gesellschaft sehr dankbar, dass sie die Initiative für die AG Technikverantwortung ergriffen haben. Es ist den Akteuren gelungen, eine Vielfalt von Repräsentanten gesellschaftlich relevanter Meinungen für eine Mitarbeit zu gewinnen.

Die Mitarbeit in der Gruppe bietet mir als Vertreter der Bundeswehr eine einzigartige Chance, mit einer breiten interessierten Öffentlichkeit ins Gespräch zu kommen und mich mit unterschiedlichen Perspektiven auseinanderzusetzten, aber auch die Positionen der Bundeswehr erklären zu können. Daraus kann gegenseitiges Verständnis erwachsen, vorausgesetzt, alle Beteiligte sind zu einer vorbehaltlosen und vorurteilsfreien Diskussion bereit. Erfreulicherweise habe ich dies in unseren bisherigen Treffen genauso erlebt.

wt: Dass ein FCAS in weiten Teilen autonom agieren wird und auf KI zurückgreifen muss, steht außer Frage. Wie lässt sich sicherstellen, dass in einem solch hochtechnisierten System menschliche Entscheidungsfindung überhaupt noch gewährleistet werden kann? Und ist das überhaupt notwendig? Können Maschinen das im Grunde nicht besser und verlässlicher?

General Funke: Diese Frage zielt auf den Kern dessen, mit dem sich die AG Technikverantwortung beschäftigt. Für uns als Bundeswehr bietet die Implementierung von KI in unsere zukünftigen Fähigkeiten die Chance, eine wesentlich größere Anzahl von Sensordaten nutzbar zu machen. War eine Datenflut in der Vergangenheit eher abschreckend, weil sie Vorgänge allein aufgrund ihrer schieren unübersichtlichen Menge komplexer machte, ist sie nunmehr genau das, was wir wollen. KI wird es uns ermöglichen, eine Vielzahl von Daten intelligent miteinander zu verknüpfen, zu analysieren und damit zu besseren Entscheidungen oder Entscheidungsempfehlungen zu kommen. Und das in nahezu Echtzeit. Der von Clausewitz beschriebene „Nebel des Krieges“ wird damit zwar nicht vollständig verschwinden, aber er wird sich definitiv lichten. Nun ist es an uns, das technisch Machbare auf das von uns als Gesellschaft auch tatsächlich Gewollte zu begrenzen. Für uns als Bundeswehr ist es eine nicht diskutierbare „rote Linie“, bei einem Waffeneinsatz gegen Menschen ausnahmslos einem Menschen die letzte Entscheidung zu überlassen. Er wird dabei von den Möglichkeiten der KI profitieren, da ihm die Auswertung einer möglichst großen Zahl von Daten ein derart akkurates Lagebild zur Verfügung stellt, wie es niemals zuvor in der Geschichte der Menschheit der Fall war. Die Entscheidungen des militärisch Verantwortlichen werden deshalb wesentlich angemessener sein können. Dies betrifft sowohl den Schutz eigenen Personals, als auch die Minimierung nicht gewollter Schäden und dabei insbesondere den wesentlich wirksameren Schutz von Nicht-Kombattanten.

Dr. Franke: Meines Erachtens nach steht außer Frage, dass FCAS auf KI zurückgreifen wird. Aber wieviel Autonomie das System bekommen soll, und an welcher Stelle im Entscheidungsprozess, ist eine Entscheidung der EntwicklerInnen und möglicherweise später der AnwenderInnen. Es kann Aufgaben geben, die an die Maschine abgegeben werden können. In anderen Prozessen kann Entscheidungsgewalt nur dann abgegeben werden, wenn die Maschine nachweislich und konstant besser performt als der Mensch – ein Nachweis, der sich bei KI-unterstützten Systemen gar nicht so leicht erbringen lässt. Und schließlich kann es Prozesse und Situationen geben, wo aus sicherheitspolitischen, ethischen oder legalen Gründen immer eine menschliche Entscheidung notwendig ist, unabhängig davon, wie gut die Maschine die Aufgabe ausführen könnte. Derartige Unterschiede und „rote Linien“ zu diskutieren und festzulegen, sehe ich als unsere Aufgabe.

wt: FCAS ist als europäisches Projekt angelegt, die derzeitige Zusammensetzung der Gruppe ist allerdings rein deutsch – laufen wir hier nicht Gefahr, wieder einmal eine deutsche Nabelschau zu betreiben?

Dr. Franke: Ich habe in der Tat von der ersten Sitzung an für eine Öffnung der Gruppe plädiert. Insbesondere Frankreich sollte einbezogen werden, da gerade die Franzosen bei der Entwicklung und Nutzung von KI eine andere Herangehensweise haben als Deutschland. Aber die Gruppe sollte sich auch aus praktischen Gründen öffnen – FCAS ist ein europäisches Projekt. Wenn unsere Gruppe Einfluss haben soll, können wir nicht nur deutsch diskutieren.

General Funke: Die Initiative geht von Deutschland aus. Aber es besteht in der Gruppe überhaupt kein Zweifel, dass wir schnellstmöglich die Ausweitung auf alle anderen am FCAS beteiligten Staaten anstreben und erreichen müssen.

wt: Herr General Funke, als Beauftragter des BMVg für das FCAS-Programm stehen Sie im engen Austausch mit Ihren französischen und spanischen Counterparts – wie finden die die Diskussion, die Sie hier im Rahmen der FCAS AG Technikverantwortung führen?

General Funke: Wir machen aus dem, was wir tun, gegenüber den Partnern kein Geheimnis. Ganz im Gegenteil, wir betonen, dass wir uns neben den rein militärischen und technischen Aspekten auch bereits mit Fragen von Ethik und Verantwortung intensiv beschäftigen. Das haben wir nie zuvor so früh in einem Projekt getan. Wir tun es jetzt zu einem Zeitpunkt, wo technische Festlegungen im FCASProjekt noch in keiner Weise entschieden sind und wir von vornherein Vorgaben für die Systemauslegung machen können. Und tatsächlich verspüre ich bei unseren Partnern eine wachsende Neugier und ein dezidiertes Interesse an unseren Diskussionen. Die Zeit scheint auf allen Seiten reif, diese Initiative in einem multinationalen Ansatz weiterzuverfolgen, was wir, wie bereits ausgeführt, auch anstreben. Und ich gehe fest davon aus, dass unser Bestreben bei den Partnern auf fruchtbaren Boden fällt und wir „offene Türen“ einrennen.

wt: Frau Dr. Franke, Sie verfolgen die Diskussion über die verantwortliche Nutzung neuer Technologien weltweit, vor allem in Bezug auf Drohnen. Kennen Sie vergleichbare Initiativen? Wie gehen andere Länder an diese Diskussion heran?

Dr. Franke: In der Drohnendebatte sticht Deutschland tatsächlich heraus. Das große öffentliche Interesse und die lange – weiterhin andauernde – politische Diskussion über bewaffnete Drohnen fand so in den anderen westlichen Ländern nicht statt. Was allerdings nicht suggerieren soll, dass es dort keine Debatte oder Bedenken gab und gibt.

Die Diskussion über KI im militärischen Bereich und gerade über den Einsatz von Autonomie wird allerdings in vielen Ländern geführt, und ich erachte es als wichtig, die Drohnendebatte von der zur KI zu trennen. Deutschland hat bisher – zumindest öffentlich – den Schwerpunkt in der Autonomiediskussion auf Rüstungskontrolle gelegt, während in anderen europäischen Ländern auch andere Aspekte beleuchtet werden. Aber alle stehen derzeit am Anfang der Debatte und der Forschung, es gibt noch viel Raum für Koordination, Kooperation und Austausch. Auch das ist ein Grund für die oben angesprochene Öffnung der Diskussion. In weiten Teilen sprechen wir hier über zukünftige Fähigkeiten und Technologien, weswegen es noch nicht viele empirische Arbeiten gibt und viele Fragen erst noch erforscht werden müssen. Hier braucht es eine informierte, ergebnisoffene und breite Diskussion.

Geplant ist, dass ein FCAS 2040 in Dienst genommen wird. Wie schaffen wir es, dass es auf Augenhöhe mit US-amerikanischen, russischen und chinesischen Systemen agiert, wenn wir uns durch ethische und rechtliche Beschränkungen selbst die Hände binden?

General Funke: Als Staatsbürger und Soldat möchte ich die Werte gelebt sehen, die ich im Extremfall verteidigen soll. Verteidigungsfähigkeit hat auch sehr viel mit Glaubwürdigkeit zu tun. Glaubwürdigkeit wiederum hängt unmittelbar vom Willen ab, im Extremfall auch militärische Gewalt anzuwenden. Ich kann mir nicht vorstellen, dass unsere Gesellschaft in ihrer weit überwiegenden Mehrheit dazu bereit sein wird, wenn wir dafür unsere gesellschaftlichen Werte und unsere ethischen Grundsätze aufgeben würden. Auch würde dies eine Kluft zwischen Militär und Gesellschaft erzeugen, die für mich als Angehöriger einer so genannten Parlamentsarmee keine Handlungsoption darstellt. Nochmal: Als Staatsbürger und Soldat möchte ich die Werte gelebt sehen, die ich im Extremfall verteidigen soll!

Dr. Franke: Natürlich kann man sagen, Ethik und Recht sind immer die ersten Opfer im Krieg. Und dann legen wir einfach die Hände in den Schoß? In der Vergangenheit haben ethische Bedenken in Bezug auf Waffensysteme zu rechtlichen Beschränkungen oder Verboten geführt, die, auch wenn sie nicht perfekt sind, sehr wohl Wirkkraft haben. Aber mir ist ein anderer Punkt wichtiger: Wir sollten die Bedenken, die es in Bezug auf KI-unterstützte Autonomie gibt, nicht auf Ethik oder Legalität verkürzen, so wichtig diese sind. Aus politikwissenschaftlicher Sicht gibt es noch andere Gefahren, wie die eines destabilisierenden Rüstungswettlaufs oder akzidentiellen, ungewollten Eskalationen bis hin zum autonomen Krieg, den niemand wollte. Das sind wichtige sicherheitspolitische Gefahren, die auch für Russland oder China eine Rolle spielen.

wt: Die AG Technikverantwortung hat sich Transparenz auf die Fahnen geschrieben. Teilnehmer und Agenda werden im Internet veröffentlicht, ebenso die Sitzungsprotokolle. Besteht nicht die Gefahr, damit den gesellschaftlichen Widerstand gegen ein Rüstungsprojekt wie FCAS gezielt heraufzubeschwören?

Dr. Franke: Nein, diese Gefahr sehe ich nicht. Ein Rüstungsprojekt dieser Größe braucht gesellschaftliche Unterstützung. Und es bleibt nicht unentdeckt, dafür braucht es nicht unserer Gruppe. Wir können dazu beitragen, dass es die Debatte gibt, auf eine informierte Art und Weise, und mit Beteiligung aller interessierten Parteien. Ich sehe es nicht als Aufgabe der Gruppe, die öffentliche Meinung zu beeinflussen. Meines Erachtens ist die erste Aufgabe nach innen – also den EntwicklerInnen und IngenieurInnen mit den Problematiken vertraut zu machen, mit denen wir uns beschäftigen. Die Aufgabe nach außen ist lediglich eine informierende. Vor diesem Hintergrund ist die angestrebte Transparenz wichtig und richtig.

General Funke: Gesellschaftliche Gruppen, die zu einer ehrlichen, vorbehaltlosen und vorurteilsfreien Diskussion bereit sind, werden unseren Willen zu Dialog und Transparenz honorieren und zu schätzen wissen. Davon bin ich zutiefst überzeugt. Jemand der nur darauf aus ist, bestehende Vorurteile bestätigt zu bekommen und Militär als ein Mittel staatlichen Handels fundamental in Frage stellt, wird Gelegenheit haben, z.B. durch gezieltes unvollständiges Zitieren, seine Ziele zu befeuern. Nur deshalb den Dialog mit der Mehrheit der Gesellschaft nicht zu suchen und sich aus Angst davor abzuschotten, kann keine Alternative sein. Insofern wünsche ich mir, dass die AG Technikverantwortung Gestaltungskraft weit über das FCAS-Projekt hinaus entwickelt und zum Maßstab für zukünftige Projekte – übrigens nicht nur im Bereich der Rüstung – wird. Ich sehe die Initiative dafür bestens aufgestellt und freue mich auf die weitere Mitarbeit.