Ethik für Kampfmaschinen: Ist der Zug schon abgefahren?
Künstliche Intelligenz Über digitale Kriegsführung und verantwortungslose Künstliche „Intelligenz“: NGOs fordern ein Verbot von autonomen Waffensystemen. Industrie und Militärs wiegeln ab
Führt der Einsatz autonomer Waffensysteme zum unkontrollierbaren Töten?
Foto: Yasuyoshi Chiba/AFP via Getty Images
Man war in Den Haag offensichtlich nervös. Für die Anmeldung zur Tagung „REAIM – Responsible AI in the Military Domain“ im vergangenen Februar musste man nicht nur ein Online-Formular ausfüllen, sondern auch den Scan des eigenen Passes und zudem ein Passbild hochladen. Es ging schliesslich um den sogenannten „verantwortungsvollen“ Einsatz von Künstlicher Intelligenz (KI) auf dem Feld der Kriegsführung. Der Ausweis wurde beim abendlichen Empfang nochmals kontrolliert. Nur mit einem großformatigen Ausdruck des Fotos und QR-Code um den Hals durfte man das beeindruckende Herzstück des Rathauses in Den Haag betreten, dessen Architektur eher an einen Serverpark als an ein öffentliches Gebäude erinnert.
Die 2.500 Teilnehmer
Teilnehmer:innen der Tagung – Soldat:innen, Ingenieur:innen, Industrie-Lobbyist:innen, Politiker:innen, Kultur- und Naturwissenschaftler:innen – wurden hier vom Den Haager Bürgermeister zu Häppchen, dezentem Live-Bebop und Wein eingeladen. Zur Begrüßung wurden altbekannte Narrative von Innovation und wegweisender Zukunftstechnologie aufgerufen, so dass sogar militärisch genutzte KI ‚verantwortungsvoll‘ wird.Magische Formel „Vertrauenswürdig“Die Adjektive ‚responsible‘ oder ‚trustworthy‘ lassen sich als ‚verantwortlich‘ oder auch ‚vertrauenswürdig‘ übersetzen. Diese Begriffe sind in den letzten Jahren zu magischen Formeln bei Konzernen, Politiker:innen und Tech-Lobbyist:innen geworden. Es scheint, als wolle man mit diesen Begrifflichkeiten einer zunehmend kritischen gesellschaftlichen Debatte über KI den Wind aus den Segeln nehmen. Denn immer mehr Wissenschaftler:innen und NGOs zeigen auf, dass KI beziehungsweise Big Data-Analysen, ‚selbstlernende‘ Algorithmen und automatisierte Entscheidungsfindung häufig zu verzerrenden, diskriminierenden und fatalen Effekten im Alltag führen.Maschinen sind nicht per se objektiv und wertneutral, wie man an undurchsichtigen und häufig diskriminierenden Ergebnissen bei der Google-Suche oder anderen Online-Bewertungssystemen sieht, die zum Beispiel Frauen oder Menschen in migrantisch geprägten Stadteilen per se als weniger kreditwürdig einstufen. Immer öfter geraten diese Formen algorithmisierter Gesellschaft mit demokratischen Grund- und Menschenrechten in Konflikt.Besonders problematisch werden Effekte einer intransparenten Datenpolitik der KI im militärischen Bereich. Was für Konsequenzen hat es, wenn ‚autonome‘ Waffensysteme (AWS) ohne echte menschliche Kontrolle ('meaningful human control') auf der Grundlage selbstlernender Algorithmen Menschen als Ziele aussuchen und töten? UN-Sekretär António Guterres erklärte AWS für „moralisch abstoßend und politisch inakzeptabel“ und fordert ein Verbot. Auch viele Expert:innen und NGOs – wie das Internationale Komitee des Roten Kreuzes, Organisationen wie Human Rights Watch oder Amnesty International, die unter dem Dach der Kampagne Stop Killer Robots kooperieren – arbeiten seit Jahren für ein Verbot. Durch ihren Druck gelang es 2014, AWS auf die Agenda jährlicher Expert:innengespräche zu bestimmten konventionellen Waffen (CCW) bei den UN in Genf zu setzen. 2015 forderten über 5.000 KI- und Robotikforscher:innen in einem offenen Brief ein Verbot von AWS. Und 2017 veröffentlichte das US-amerikanische Future of Life-Institut einen Videoclip namens ‚Slaughterbots‘, der sofort viral ging und anschaulich demonstrierte, wie AWS zu Massenvernichtungswaffen werden können. Am Ende des Videos mahnt Stuart Russel, einer der bekanntesten KI-Forscher:innen weltweit, das Verbot von AWS umgehend umzusetzen. Doch aufgrund der Blockade durch Militärgroßmächte wie USA, Großbritannien, China, Russland und Deutschland kam es bisher zu keiner Regulierung.Luftkampfsystem, ethisch flankiertDoch zurück ins Rathaus von Den Haag. Auf der Tagung ließ sich gut beobachten, wie die Industrie, das Militär und teilweise auch die Politik versuchen, die massive Kritik der Expert:innen und NGOsdurch das Konzept einer ‘verantwortungs- oder vertrauenswürdigen’ KI zu neutralisieren. Nur zwei Beispiele: Florian Keisinger von Airbus Defence stellte das Europäische Militär-Großprojekt Future Combat Air System (Zukünftiges Luftkampfsystem) vor, welches aus einem bemannten Kampfflugzeug sowie aus unbemannten Flugzeugen, Waffensystemen, Gefechtsständen und Satelliten besteht. Dieses „System der Systeme“ soll bis 2040 für circa 300 Milliarden Euro entwickelt und dabei „ethisch“ flankiert werden.Allerdings wurde aus den Beiträgen des FCAS-Panels nicht deutlich, wie man mit Hilfe technischer Designprinzipien „verantwortliche“ militärische KI erreichen will. Der vorgestellte „Ethik-Demonstrator“ blieb vage und wurde nicht weiter diskutiert. Trotzdem versicherte Nato-General a.D. Jörg Vollmer , dass KI in der Kriegsführung helfen könne und dass man ihr trauen müsse. Und der Informatikprofessor Wolfgang Koch suggerierte die Alternativlosigkeit der KI-Systeme, da diese auch von skrupellosen Gegnern genutzt würden. Von der völkerrechtlichen Verpflichtung, Konflikte primär friedlich und diplomatisch zu lösen und Zivilist:innen zu schützen, war hier nicht die Rede.Ein zweites Beispiel für einen fragwürdigen Umgang mit dem Einsatz künstlicher Intelligenz in Sachen Krieg war das niederländische Elsa Defence Lab. Das Lab warb mit „partizipativem Design“ – ein Ansatz, der in der kritischen Informatik seit Jahrzehnten praktiziert wird und dort engste Interaktion mit den User:innen im Entwicklungsprozess bedeutet. Das Elsa Defence Lab reduzierte das auf eine Art Umfrage am runden Tisch: Um eine verantwortliche KI zu entwickeln, wolle man gemeinsam mit unterschiedlichsten Teilnehmern (Bürger:innen, Militär, Ingenieur:innen, Forscher:innen, Politik) Einsatzszenarien diskutieren und bewerten lassen. Die sollten zehn Thesen zu einem unrealistischen Szenario eines Blauhelmeinsatzes bewerten: Zehn Soldat:innen mit 50 Drohnen werden von einer Überzahl an Terrorist:innen mit sprengstoffgeladenen Fahrzeugen und Drohnen angegriffen. Die Auswahl des Szenarios zeigt in seiner Engführung dass häufig nicht ergebnisoffen über den Einsatz von KI diskutiert wird. Die Option eines Verbots bestimmter Technologieanwendungen wurde sogar explizit ausgeschlossen.Optimierung von Algorithmen ist etwas anderes als menschliches LernenIn beiden Veranstaltungen fehlte eine seriöse Auseinandersetzung mit der Komplexität von Mensch-Maschine-Interaktion und den Grundlagen von KI. Dann wäre deutlich geworden, dass Maschinen nicht wie Menschen Entscheidungen treffen, sondern auf der Basis vorgegebener, häufig nicht validierter und hinterfragter Daten arbeiten. ‚Selbstlernende‘ Algorithmen optimieren sich mit Hilfe großer Rechenkapazitäten, um sich vorgegebenen Zielen anzupassen. Diese Optimierung von Algorithmen ist etwas anderes als menschliches Lernen, das auf Bedeutungen und auf dem Verständnis von Zusammenhängen basiert. Gleichzeitig sind für die Programmier:innen selbst die massiven Rechenoperationen der Maschinen in ihrer Komplexität oft nicht mehr nachvollziehbar – und damit auch nicht beherrschbar. Und möchte man wirklich selbstlernende militärische Systeme, die sich über falsche Tötungsentscheidungen optimieren?Placeholder infobox-1KI-Expert:innen und Technikforscher:innen betonen, dass datenbasierte, selbst-lernende Algorithmen grundsätzlich nicht in der Lage sind und sein werden, komplexe Zusammenhänge in variablen Kontexten wie einem Schlachtfeld adäquat zu verstehen. Natürlich machen auch Menschen Fehler, aber die entscheidende Differenz ist, dass Maschinen a priori jegliches Verständnis dessen, was sie tun, fehlt. Gleichzeitig sind wir auf das engste mit den Maschinen verbunden.Auch die auf der Tagung oft gehörte Behauptung: „In letzter Instanz entscheidet immer der Mensch“ ist absurd. Denn viele Nutzer:innen weisen einen ‚Machine Bias‘ auf: Sie tendieren dazu, eher der Maschine als dem Menschen zu glauben. So folgen viele Autofahrer:innen lieber stur den Anweisungen des Navigationssystems, als der Ortskundigen auf dem Nebensitz zu trauen. Das wäre bei AWS fatal. Man kann nicht von ‚meaningful human control‘, von einer eigenständigen menschlichen Entscheidung sprechen, wenn spezifische Entscheidungen durch Algorithmen, Auswahloptionen oder Interfaces nahegelegt werden.Verantwortung wegklicken so wie CookiesAuch die Vorgabe durch beschränkte Auswahloptionen, einschlägig designte Interfaces und spezifisch konfigurierte Algorithmen ist problematisch: Töte ich diesen Menschen – ja oder nein? Verleitet mich ein grüner Knopf zum Abdrücken? Man kennt das schon von all den tollen Varianten, mit denen man uns zu überreden versucht, alle Cookies auf einer Website zuzulassen, indem man den Zustimmungsbutton einfacher erreichbar und deutlicher sichtbar macht.Auf der Tagung wurde von einschlägigen Akteur:innen immer wieder behauptet, dass der Einsatz von autonomen Waffensystemen nicht mehr unterbunden werden könne, deshalb gälte es, sie ethisch einzuhegen. Eine fragwürdige Behauptung angesichts der Tatsache, dass historisch unterschiedlichste Waffen wie zum Beispiel biologische und chemische Waffen, Landminen oder Clusterbomben bereits geächtet wurden. Wieso also nicht AWS?Während der Abschlussveranstaltung veröffentlichten die USA eine neue, völlig unverbindliche Deklaration zur militärischen Nutzung von KI, die zugleich von einem Aufruf der niederländischen Regierung flankiert wurde. Beide Erklärungen enthalten keinerlei konkrete Regeln oder Beschränkungen für Entwicklung und Gebrauch autonomer Waffensysteme. Auch sie scheinen sich dem wachsenden Druck der internationalen Zivilgesellschaft zur rechtlich verbindlichen Regulierung von AWS entgegenzustellen. Bei der UN-Generalversammlung im Oktober 2022 hatten die USA noch zusammen mit 69 anderen Staaten in einer gemeinsamen Erklärung die fundamentalen Risiken von AWS anerkannt. Vor diesem Hintergrund kann man den Titel der Tagung REAIM (Re-Aim) sprichwörtlich als Neuausrichtung der Big Player verstehen: Man will nicht mehr darüber reden, ob autonome Waffensysteme und KI von Streitkräften genutzt werden, sondern nur noch wie.Placeholder authorbio-1