„The Gospel“: Wie Israel mithilfe von Künstlicher Intelligenz Gaza bombardiert
Kollateralschäden Israels Kriegsführung im Gazastreifen basiert auf Künstlicher Intelligenz, zeigen Recherchen. Die KI-Plattform, die das Militär seine Ziele auswählen lässt, trägt den Namen „The Gospel“ – was daran ist eine „frohe Botschaft“?
Die Angriffsziele in Gaza werden von einer Maschine vorgeschlagen
Foto: John MaxDougall/AFP/Getty Images
Aus der Intensität seines Gaza-Bombardements hat Israels Militär von Anfang an keinen Hehl gemacht. Zu Beginn der Offensive sprach der Chef der Luftwaffe von unerbittlichen Angriffen „rund um die Uhr“. Die Streitkräfte würden nur militärische Ziele angreifen – aber: „Wir gehen nicht chirurgisch vor.“
Mit welchen Methoden Israels Militär Ziele im Gazastreifen auswählt und die Rolle, die künstliche Intelligenz dabei spielt, haben bisher recht wenig Beachtung gefunden. Das ändert sich gerade, während Israel nach Ende des Waffenstillstands verstärkt auch den Süden Gazas mit Bodentruppen und Luftschlägen attackiert. Kritik an der Art und Weise, wie die Armee ihre Ziele auswählt, werden lauter.
Spra
auter.Sprachen israelische Vertreter schon nach der elftägigen Operation in Gaza im Mai 2021 davon, dass Israel seinen „ersten KI-Krieg“ unter Einsatz maschinellen Lernens und fortschrittlichster Datenverarbeitung geführt habe, so bietet die jüngste Auseinandersetzung eine nie da gewesene Gelegenheit, derartige Werkzeuge auf einem weitaus größeren Gebiet einzusetzen. Im Zentrum steht dabei eine KI-Plattform namens „The Gospel“: Künstliche Intelligenz identifiziert in einem derart großen Ausmaß potenzielle Ziele für Luftschläge, dass selbst Offizielle von einer „Fabrik“ mit tödlichen Produktionslinien sprechen.Wie The Gospel funktioniert, veranschaulichen Aussagen von Geheimdienstquellen gegenüber dem Guardian sowie das, was die Armee und pensionierte Militärs öffentlich gesagt haben, ohne dass dies großen Widerhall gefunden hätte. Zudem zeigt eine Recherche der israelisch-palästinensischen Publikation +972 Magazine und des hebräischsprachigen Magazins Local Call, welche Rolle eine geheime, auf KI gestützte militärische Geheimdiensteinheit bei Israels Reaktion auf das Hamas-Massaker vom 7. Oktober spielt.Die Welt sieht zuVon Interesse ist das auch deshalb, weil Militärs auf der ganzen Welt zunehmend auf komplexe, undurchsichtige automatisierte Systeme zurückgreifen und infrage steht, was dies für die Zivilbevölkerung in einem Krieg heißt. „Andere Staaten werden sich das ansehen und daraus ihre Schlüsse ziehen“, sagt ein früherer, mit dem Einsatz autonomer Systeme durch das US-Militär vertrauter Beamter des Weißen Hauses.Anfang November 2023 erklärte Israels Militär, seine dafür zuständige Division habe „mehr als 12.000“ Ziele in Gaza identifiziert. Hamas-Kämpfer seien nicht sicher – „egal, wo sie sich verstecken“. In einer kurzen Erklärung auf der Internetseite der Streitkräfte findet sich der Hinweis, sie setze im Krieg gegen die Hamas auf ein KI-basiertes System namens Habsora (Hebräisch für Gospel), um „mit hohem Tempo Ziele zu produzieren“. Durch „die schnelle und automatische Extraktion von Informationen“ erstelle The Gospel Zielempfehlungen „mit dem Ziel vollständiger Übereinstimmung zwischen der Empfehlung der Maschine und der von einer Person durchgeführten Identifizierung“.100 Angriffsziele pro Tag statt 50 pro JahrMehrere Quellen, die das Verfahren kennen, bestätigten +972 und Local Call die Existenz von The Gospel – das System diene zur Erstellung automatischer Empfehlungen für Angriffe auf Ziele wie die Privatwohnungen von Personen, die im Verdacht stehen, Kämpfer der Hamas oder des Islamischen Dschihad zu sein. Eine Datenbank mit 30.000 bis 40.000 solcher mutmaßlichen Kämpfer hat die entsprechende „Target Administration Division“ der israelischen Streitkräfte diesen Quellen zufolge in den vergangenen Jahren aufzubauen geholfen. Systeme wie The Gospel hätten eine entscheidende Rolle bei der Erstellung von Listen gespielt, auf denen die Personen stehen, deren Tötung als zulässig gilt.Laut Aviv Kochavi, bis Januar Chef der Israelischen Streitkräfte, seien KI-Fähigkeiten der Motor jener Division, die Hunderte Offiziere und Soldaten umfasse. In einem vor dem jetzigen Krieg veröffentlichten Interview sagte er, es handle sich um „eine Maschine, die riesige Datenmengen effektiver als jeder Mensch produziert und sie in Angriffsziele übersetzt“. Während des Krieges im Mai 2021 einmal aktiviert, habe sie 100 Ziele pro Tag erzeugt. „Um das ins Verhältnis zu setzen: In der Vergangenheit haben wir pro Jahr 50 Ziele in Gaza produziert. Jetzt produziert diese Maschine 100 Ziele an einem einzigen Tag, von denen 50 Prozent angegriffen werden.“Es ist nicht genau bekannt, welche Arten von Daten The Gospel füttern. Experten zufolge sind dies bei KI-basierten Systemen dieser Art in der Regel große Mengen an Informationen aus verschiedenen Quellen, zum Beispiel Aufnahmen von Drohnen, abgefangene Kommunikation und Informationen aus der Überwachung der Bewegungs- und Verhaltensmuster von Einzelpersonen wie großen Gruppen.Die Target Administration Division ist 2019 eingerichtet worden, um ein chronisches Problem zu lösen: Bei früheren Operationen im Gazastreifen gingen der Luftwaffe wiederholt die Ziele aus, die sie angreifen konnte, da hochrangige Hamas-Vertreter zu Beginn jeder neuen Offensive in Tunneln verschwanden. Mit Systemen wie The Gospel konnte das Militär dem Vernehmen nach einen viel größeren Pool an Hamas-Vertretern niedrigerer Ränge ausfindig machen und angreifen. Die Häuser eben solcher Hamas-Mitglieder hätte Israels Militär bisher nicht bombardiert, so eine israelische Quelle, die bei früheren Operationen in Gaza an der Auswahl von Zielpersonen beteiligt war. Das habe sich im gegenwärtigen Konflikt offensichtlich verändert, nun würden Häuser von mutmaßlichen Hamas-Vertretern unabhängig von deren Rang ins Visier genommen. „Das sind viele Häuser“, so die Quelle gegenüber +972 und Local Call. „Hamas-Mitglieder, die keine hohe Stellung innehaben, leben überall in Gaza verteilt. Also markieren sie das Haus, bombardieren es und töten alle Bewohner.“Rot, gelb, grün: Eine Ampel für zivile OpferIn jener kurzen Internet-Erklärung der israelischen Armee sagte ein hochrangiger Beamter, dass die Division „präzise Angriffe auf Infrastrukturen durchführe, die mit der Hamas in Verbindung stehen, dabei dem Feind großen und nicht am Kampfgeschehen Beteiligten minimalen Schaden zufügt“. Die Präzision der von der „KI-Zieldatenbank“ empfohlenen Angriffe wurde in israelischen Medien wiederholt hervorgehoben. Die Zeitung Yedioth Ahronoth schrieb, dass die Einheit „so weit wie möglich sicherstellt, dass keine unbeteiligten Zivilisten zu Schaden kommen“.Ein früherer hochrangiger israelischer Militär sagte dem Guardian, die Streitkräfte verwendeten eine „sehr genaue“ Bemessung der Zahl von Zivilisten, die ein Gebäude kurz vor einem Angriff verlassen. „Wir nutzen einen Algorithmus, um zu bewerten, wie viele Zivilisten noch übrig sind. Er zeigt uns grün, gelb oder rot an, wie eine Ampel.“ Doch Experten, die sich mit der Rolle künstlicher Intelligenz in bewaffneten Konflikten befassen, sind äußert skeptisch. Ein Anwalt, der Regierungen in Fragen der künstlichen Intelligenz und der Einhaltung des humanitären Völkerrechts berät, sagte dem Guardian, es gebe „kaum empirische Belege“ dafür, dass KI-basierte Systeme durch eine genauere Zielerfassung den Schaden für die Zivilbevölkerung verringerten. Andere verweisen auf die für alle sichtbaren Folgen des Bombardements von Gaza, etwa der Wissenschaftler Richard Moyes, der Article 36 leitet, eine Gruppe, die sich dafür einsetzt, dass Waffen weniger Schäden anrichten: „Schauen Sie sich die landschaftliche Beschaffenheit des Gazastreifens an: Städtische Gebiete werden mit schweren Explosivwaffen großflächig platt gemacht. Die Behauptung, dass es sich dabei um eine präzise und begrenzte Anwendung von Gewalt handelt, wird durch die Faktenlage nicht bestätigt.“Der „Kollateralschadenswert“Nach Angaben der Armee aus dem November hat Israel in den ersten 35 Tagen des Krieges 15.000 Ziele angegriffen, eine Zahl, die deutlich höher ist als bei früheren Operationen in dem dicht besiedelten Küstengebiet. Im Krieg von 2014, der 51 Tage dauerte, griff Israel 5.000 bis 6.000 Ziele an. Die mit der Erfassung und Genehmigung Betrauten wüssten im Voraus, wie viele Zivilisten voraussichtlich getötet werden, wenn etwa das Privathaus eines mutmaßlichen Hamas-Mitglieds bombardiert wird, so mehrere Quellen gegenüber dem Guardian sowie +972 und Local Call. Für jedes Ziel gebe es eine Datei mit einem Kollateralschadenswert, der angibt, wie viele Zivilisten wahrscheinlich getötet werden.Ein israelischer Militärsprecher sagte: „Als Reaktion auf die barbarischen Angriffe der Hamas arbeiten die israelischen Verteidigungsstreitkräfte daran, die militärischen und administrativen Kapazitäten der Hamas zu zerschlagen. In krassem Gegensatz zu den vorsätzlichen Angriffen der Hamas auf israelische Männer, Frauen und Kinder halten sich die Verteidigungsstreitkräfte an das Völkerrecht und treffen alle möglichen Vorkehrungen, um den Schaden für die Zivilbevölkerung zu begrenzen.“Was eine Sipri-Friedensforscherin sagtQuellen, die damit vertraut sind, wie KI-basierte Systeme in die Operationen des israelischen Militärs integriert wurden, sagten, dass solche Werkzeuge den Prozess der Zielerstellung erheblich beschleunigt hätten. „Wir bereiten die Ziele automatisch vor und arbeiten nach einer Checkliste“, sagte eine Quelle, die früher in der entsprechenden Abteilung gearbeitet hat, gegenüber +972 und Local Call. „Es ist wirklich wie in einer Fabrik. Wir arbeiten schnell und es bleibt keine Zeit, sich eingehend mit dem Ziel zu befassen. Wir werden danach beurteilt, wie viele Zielvorgaben wir generieren können.“ Eine andere Quelle sagte, The Gospel habe es den israelischen Streitkräften erlaubt, eine „Fabrik für Massenhinrichtungen“ zu betreiben, in der „der Schwerpunkt auf Quantität und nicht auf Qualität liegt“. Ein menschliches Auge gehe zwar „die Ziele vor jedem Angriff durch, muss aber nicht viel Zeit auf sie verwenden“.Eine solche Beschleunigung alarmiert Experten, die sich mit KI und humanitärem Völkerrecht befassen. Marta Bo, Forscherin am Stockholmer Friedensforschungsinstitut (Sipri) sagt: Selbst, wenn „Menschen im Spiel sind“, bestehe die Gefahr, dass sie eine „automatisierte Voreingenommenheit“ entwickelten und sich „zu sehr auf Systeme verlassen, die zu viel Einfluss auf komplexe menschliche Entscheidungen haben“. Richard Moyes von Article 36 meint, dass ein Kommandeur, wenn er sich auf Instrumente wie The Gospel verlässt, „eine Liste von Zielen erhält, die ein Computer erstellt hat“, dass er aber „nicht unbedingt weiß, wie die Liste erstellt wurde, und auch nicht die Möglichkeit hat, die Zielempfehlungen angemessen zu hinterfragen“. Damit bestehe die Gefahr, „dass Menschen, die sich auf diese Systeme verlassen, zu Rädchen in einem mechanisierten Prozess werden und die Fähigkeit verlieren, das Risiko ziviler Schäden auf sinnvolle Weise zu berücksichtigen“.
×
Artikel verschenken
Mit einem Digital-Abo des Freitag können Sie pro Monat fünf Artikel verschenken.
Die Texte sind für die Beschenkten kostenlos.
Mehr Infos erhalten Sie
hier.
Aktuell sind Sie nicht eingeloggt.
Wenn Sie diesen Artikel verschenken wollen, müssen Sie sich entweder einloggen oder ein Digital-Abo abschließen.