Roboterfinger am Abzug: Künstliche Intelligenz im Krieg
Kampfmaschinen Der militärische Einsatz von Künstlicher Intelligenz schreitet rasant voran. Die ethische Debatte aber hinkt hinterher: Wie gehen wir damit um, wenn der Mensch als aktiver Entscheider von autonomen Systemen abgelöst wird?
Gebaut, um Befehle auszuführen, ohne moralisches Bewusstsein, dass in die Quere kommen könnte
Montage: Ira Bolsinger für der Freitag; Material: Adobe Stock, iStock, dpa
Es war gegen 15.30 Uhr, als der Sicherheitskonvoi am 27. November 2020 auf den Teheraner Imam-Khomeini-Boulevard einbog. Der iranische Wissenschaftler Mohsen Fakhrizadeh, der weithin als Leiter des geheimen Atomwaffenprogramms des Irans gilt, war mit seiner Frau auf dem Weg zu ihrem Landhaus, flankiert von Leibwächtern in mehreren Fahrzeugen. Sie hatten ihr Zuhause fast erreicht, als der Attentäter zuschlug.
Es fielen mehrere Schüsse, die Fakhrizadehs schwarzen Nissan zum Stehen brachten. Ein Schuss traf den Wissenschaftler in die Schulter und veranlasste ihn, das Fahrzeug zu verlassen. Als Fakhrizadeh im Freien war, gab der Attentäter einen weiteren, tödlichen Schuss ab. Fakhrizadehs Frau blieb unverletzt auf dem Beifahrersitz.
Dann geschah etwas Seltsames. Ein am S
ltsames. Ein am Straßenrand geparkter Pick-up explodierte ohne ersichtlichen Grund. Bei der anschließenden Durchsuchung des Autowracks fanden iranische Sicherheitskräfte die Überreste eines Roboter-Maschinengewehrs mit mehreren Kameras und einem computergesteuerten Mechanismus zum Auslösen des Abzugs. War Fakhrizadeh von einem Roboter getötet worden?Die New York Times berichtete später, dass das Roboter-Maschinengewehr nicht völlig autonom operierte. Stattdessen hatte – 1.000 Kilometer entfernt – ein israelischer Attentäter Zugang zu den Bildern aus dem Lastwagen und entschied, wann er den Abzug betätigte. Die KI-Software glich aber die Bewegungen des Ziels in den 1,6 Sekunden aus, die es dauerte, bis die Bilder über Satellit vom LKW zum Attentäter übertragen wurden und das Signal zum Abdrücken zurückkam.Ein Roboterhund mit GewehrDas ist der Stoff, aus dem Albträume sind. Die Bilder aus dem Krieg in der Ukraine tragen nichts dazu bei, Befürchtungen zu zerstreuen. Denn Drohnen sind in diesem Konflikt allgegenwärtig, von den türkischen Bayraktar TB2, die die russischen Besatzungstruppen auf der Schlangeninsel angriffen, über Drohnenboote, die russische Schiffe in Sewastopol beschossen, bis hin zu Quadrocoptern, die Granaten auf Infanteristen und andere Ziele abwerfen. Wenn man dem Internet trauen kann, könnte es noch schlimmer kommen.Ein Video, das beim chinesischen Kurznachrichtendienst Weibo gepostet wurde, zeigt eine Drohne eines chinesischen Rüstungsunternehmens, die einen Roboterhund auf dem Boden absetzt. Auf seinem Rücken befindet sich ein Maschinengewehr. In einem anderen Video scheint ein im Handel erhältlicher Roboterhund von einem Russen so modifiziert worden zu sein, dass er ein Gewehr abfeuern kann.Als Reaktion auf diese Videos veröffentlichten Boston Dynamics und fünf weitere Robotik-Unternehmen im Oktober 2022 einen offenen Brief, in dem sie erklärten: „Der bewaffnete Einsatz dieser Roboter droht das Vertrauen der Öffentlichkeit in die Technologie in einer Weise zu beeinträchtigen, die die enormen Vorteile, die sie der Gesellschaft bringen werden, zunichtemacht.“ Boston Dynamics befindet sich jedoch im Besitz der Hyundai Motor Group, die im Juni 2021 Mehrheitseigner wurde. Ein anderer Teil dieser Gruppe, Hyundai Rotem, hat keine derartigen Skrupel. Im April dieses Jahres kündigte Hyundai Rotem eine Zusammenarbeit mit einer anderen südkoreanischen Firma, Rainbow Robotics, an, um mehrbeinige Verteidigungsroboter zu entwickeln. Eine Werbegrafik zeigt einen Roboterhund mit einem Gewehr darauf.Der Verteidigungsexperte und Militärhistoriker Tim Ripley sagt, selbst wenn man Robotern keine Waffen anschnallt, können sie dennoch als Kriegsinstrumente eingesetzt werden. „Wenn es sich bei dem Roboter um eine Überwachungsdrohne handelt, die ein Ziel findet, das dann mit einer tödlichen Artilleriegranate beschossen wird, dann ist diese Drohne genauso Teil eines Waffensystems wie eine Rakete an der Drohne. Sie ist immer noch ein Teil der Tötungskette.“Wenn es um computergestützte militärische Hardware geht, gibt es zwei Teile des Systems: die Hardware selbst und die Steuerungssoftware. Während Roboter jenseits von Drohnen auf dem Schlachtfeld noch nicht alltäglich sind, wird immer mehr intelligente Software eingesetzt. „Es gibt ein ganzes Spektrum an Autonomie, das bereits in unsere Systeme eingebaut ist. Weil sie es dem Menschen ermöglicht, schnelle Entscheidungen zu treffen“, sagt Mike Martin, War Studies Senior Visiting Fellow am King’s College in London. Er nennt das Beispiel eines Apache-Hubschraubers, der die Landschaft nach Wärmesignaturen absucht. Die bordeigene Software identifiziert diese als potenzielle Ziele. Sie kann sogar eine Empfehlung dazu abgeben, wie diese Ziele zu priorisieren sind, und sie dem Piloten vorlegen.Militärs auf der ganzen Welt sind an derartigen Systemen interessiert, insbesondere wenn sie mit Robotern kombiniert werden können. Das US-Unternehmen Ghost Robotics stellt Roboterhunde her. Sie werden nicht nur als Überwachungsgeräte angepriesen, die Patrouillen bei der Erkundung potenziell feindlicher Gebiete helfen, sondern auch als Tötungsmaschinen.Auf der Jahreskonferenz 2021 der Association of the United States Army zeigte Ghost Robotics einen Vierbeiner mit einem Gewehr auf dem Kopf. Das Gewehr wird von einer US-Firma, Sword Defence Systems, hergestellt und heißt Special Purpose Unmanned Rifle (SPUR). Sword Defence Systems schreibt dazu, SPUR sei „die Zukunft der unbemannten Waffensysteme, und diese Zukunft ist jetzt“.Im Vereinigten Königreich testet die Royal Navy derzeit ein autonomes U-Boot namens Manta. Das neun Meter lange, unbemannte Fahrzeug soll mit Sonar, Kameras, Kommunikations- und Störsendern ausgestattet sein. Britische Truppen nahmen kürzlich in der Mojave-Wüste an Kriegsspielen mit ihren amerikanischen Kameraden teil. Ein Schwerpunkt der Übung „Project Convergence“ war der Einsatz von Drohnen, Roboterfahrzeugen und Künstlicher Intelligenz, um „die britische Armee auf dem Schlachtfeld tödlicher zu machen“.Doch selbst bei den ausgeklügeltsten aktuellen Systemen ist der Mensch immer an der Entscheidungsfindung beteiligt. Es gibt zwei Stufen der Beteiligung: Bei einem „In the Loop“-System wählen Computer mögliche Ziele aus und präsentieren sie einem menschlichen Bediener. Bei einem „On the Loop“-System hingegen teilt der Computer dem menschlichen Bediener mit, welche Ziele er zuerst auszuschalten empfiehlt. Der Mensch kann den Computer jederzeit überstimmen, aber die Maschine ist aktiver in ihren Entscheidungen. Der Rubikon ist dann erreicht, wenn das System vollständig automatisiert ist und seine eigenen Ziele ohne menschliches Eingreifen auswählt und verfolgt.„Hoffentlich werden wir dieses Stadium nie erreichen“, sagt Mike Martin. „Wenn man autonomen Systemen die Entscheidungsfindung überlässt, verliert man die Kontrolle. Wer weiß, ob das System zu dem Schluss kommt, dass die Beseitigung der eigenen Führung das Beste für die Fortführung des Krieges ist?“Feras Batarseh, Professor an der Virginia Tech University, ist zwar der Meinung, dass völlig autonome Systeme noch in weiter Ferne liegen, warnt aber davor, dass die KI einen gefährlichen Entwicklungsstand erreicht hat. „Die Technologie ist an einem Punkt angelangt, an dem sie noch nicht intelligent genug ist, um völlig vertrauenswürdig zu sein, aber auch noch nicht so dumm, dass ein Mensch automatisch weiß, dass er die Kontrolle behalten sollte“, sagt er. Mit anderen Worten: Ein Soldat, der derzeit einem KI-System vertraut, könnte sich selbst in Gefahr bringen, weil die aktuelle Generation der KI versagt, wenn sie auf Situationen trifft, die sie nicht ausdrücklich zu interpretieren gelernt hat. Forscher bezeichnen unerwartete Ereignisse als Ausreißer, und im Krieg ist die Zahl dieser Ausreißer besonders hoch. „Im Krieg passieren ständig unerwartete Dinge. Ausreißer sind das A und O, und wir wissen, dass die derzeitigen KIs nicht gut mit Ausreißern umgehen können“, sagt Batarseh.Anfällig für HackingSelbst wenn dieses Problem gelöst wird, bleiben immer noch gigantische ethische Dilemmata. Wie kann man etwa entscheiden, ob eine KI die richtige Entscheidung getroffen hat, als sie sich zum Töten entschloss? Dieses Problem ähnelt dem sogenannten Trolley-Problem, das derzeit die Entwicklung von automatisierten Fahrzeugen behindert. Es läuft im Wesentlichen auf die Frage hinaus, ob es ethisch richtig ist, einen drohenden Unfall zuzulassen, bei dem eine Reihe von Menschen getötet werden könnte, oder eine Maßnahme zu ergreifen, die diese Menschen rettet, aber das Risiko birgt, dass eine geringere Anzahl anderer Menschen getötet wird.Sorin Matei von der Purdue University in Indiana glaubt, dass ein Beitrag zu einer Lösung darin bestünde, jedem KI-Krieger ein Gefühl für seine eigene Verwundbarkeit zu geben. Der Roboter würde dann seine eigene Existenz zu schätzen wissen und könnte dies auf den Menschen übertragen. Matei meint sogar, dass eine humanere Kriegsführung die Folge sein könnte. „Wir könnten sie so programmieren, dass sie so achtsam sind, wie es die Genfer Konvention von menschlichen Akteuren verlangt“, sagt er. „Um der KI zu vertrauen, müssen wir ihr etwas geben, das für sie auf dem Spiel steht.“Aber selbst der ethisch bestprogrammierte Killer-Roboter ist für eine Sache anfällig: Hacking. Roboterkrieger wären das naheliegendste Ziel für einen Cyberangriff durch einen Feind, der sie gegen ihre Schöpfer wenden und alle ethischen Programme aus ihrem Speicher löschen könnte. Die Folgen wären entsetzlich. Dennoch scheint es, dass die Militärindustrie mit Nachdruck in diese Richtung drängt.Für die Frage, wie die Kontrolle dieser Waffen erreicht werden könnte, verweist Martin auf die Militärgeschichte. „Wenn man sich andere Waffensysteme anschaut, vor denen die Menschen wirklich Angst haben – zum Beispiel nukleare, chemische oder biologische Waffen –, dann ist der Grund dafür, dass es für diese Systeme Rüstungskontrollabkommen gibt, nicht etwa, dass wir die Entwicklung frühzeitig gestoppt haben, sondern dass die Entwicklung dieser Waffen während des Wettrüstens so beängstigend wurde, dass alle sagten: O. k., lasst uns darüber reden“, sagt Martin.Bis es so weit ist, stehen uns beunruhigende Zeiten bevor.Placeholder authorbio-1
×
Artikel verschenken
Mit einem Digital-Abo des Freitag können Sie pro Monat fünf Artikel verschenken.
Die Texte sind für die Beschenkten kostenlos.
Mehr Infos erhalten Sie
hier.
Aktuell sind Sie nicht eingeloggt.
Wenn Sie diesen Artikel verschenken wollen, müssen Sie sich entweder einloggen oder ein Digital-Abo abschließen.