„Die Maschine ist eiskalt“: Israel identifiziert mit „Lavender“ 37.000 menschliche Ziele
Gaza-Krieg Für die Bombardierung von Hamas-Zielen nutzt das israelische Militär auch künstliche Intelligenz. Was „The Gospel“ für Gebäude ist, ist „Lavender“ für Personen. Laut Geheimdienstlern werden dabei auch getötete Zivilisten in Kauf genommen
Zerstörte Häuser in Gaza nach einem Luftangriff der israelischen Streitkräfte
Foto: Ali Jadallah/Anadolu/picture alliance
Bei den Bombenangriffen des israelischen Militärs in Gaza wurde laut am Krieg beteiligter israelischer Geheimdienstquellen eine KI-gestützte Datenbank genutzt, von der die Öffentlichkeit bisher nichts wusste. Sie soll zu einem bestimmten Zeitpunkt 37.000 potenzielle Ziele basierend auf ihren scheinbaren Verbindungen zur Hamas identifiziert haben.
Die Geheimdienstler berichteten nicht nur von der Nutzung des KI-Systems namens „Lavender“, sondern behaupteten, dass israelische Militärkommandeure die Erlaubnis gegeben hätten, zahlreiche palästinensische Zivilisten zu töten, insbesondere während der frühen Wochen und Monate des Konflikts.
Ihre ungewöhnlich offene Aussage erlaubt aus erster Hand einen seltenen Einblick in die Erfahrunge
in die Erfahrungen israelischer Geheimdienstoffiziere, die maschinell lernende Systeme einsetzten, um während des sechsmonatigen Krieges Ziele zu identifizieren.Mit dem Einsatz von starken KI-Systemen hat Israel in seinem Krieg gegen die Hamas neues Gebiet der fortgeschrittenen Kriegsführung betreten. Es wirft zahlreiche rechtliche und moralische Fragen auf und verändert das Verhältnis zwischen Militärmitarbeitern und Maschinen. „Das gab es noch nie, soweit ich mich erinnern kann“, erklärte ein Geheimdienstoffizier, der Lavender nutzte. Sie hätten mehr Vertrauen in einen „statistischen Mechanismus“ gehabt als in einen trauernden Soldaten, fügte er hinzu. „Jeder Mitarbeiter dort, auch ich, hatte am 7. Oktober Menschen verloren. Die Maschine arbeitete ohne Emotionen. Das machte es einfacher.“Ein anderer Lavender-Nutzer bezweifelte, dass die Rolle von Menschen beim Auswahlprozess von Bedeutung sei. „Ich investierte zu diesem Zeitpunkt 20 Sekunden für jedes Ziel und das jeden Tag ein Dutzend Mal. Ich brachte als Mensch Null Mehrwert, abgesehen vom Genehmigungsstempel. Es sparte sehr viel Zeit.“Die Aussagen von sechs Geheimdienstlern, die alle KI-Systeme nutzten, um Ziele der Hamas und des Palästinensischen Islamischen Dschihads (PIJ) zu definieren, wurden dem Journalisten Yuval Abraham für einen Bericht zur Verfügung gestellt. Sein Bericht wurde vom israelisch-palästinensischen Magazin +972 und der hebräischsprachigen Nachrichtenwebsite Local Call veröffentlicht.Vor der Veröffentlichung erhielt der Guardian exklusiv Zugang zu den Aussagen. Alle sechs berichteten, Lavender habe in dem Krieg eine zentrale Rolle gespielt, indem es massenhaft Daten verarbeitete, um potenzielle Mitarbeiter „aus den unteren Rängen“ ins Visier zu nehmen. Laut vier Geheimdienstlern listete Lavender während eines früheren Stadiums des Krieges ganze 37.000 Palästinenser auf, die das KI-System mit der Hamas oder PIJ in Verbindung brachte.Lavender wurde von der Elite-Geheimdienstabteilung Einheit 8200 der israelischen Streitkräfte (IDF) entwickelt, die mit der National Security Agency in den USA oder GCHQ in Großbritannien vergleichbar ist.Laut mehreren Quellen autorisierte die Armee vor dem Okay für einen Anschlag vorab, wie viele tote Zivilisten je nach der Kategorie des Ziels in Kauf genommen werden durften. Zwei Quellen gaben an, dass in den frühen Wochen des Krieges bei Luftangriffen auf militante Kämpfer unterer Ränge erlaubt war, den Tod von 15 bis 20 Zivilisten in Kauf zu nehmen. Angriffe auf solche Zielen seien üblicherweise mit ungelenkten Bomben ausgeführt wurden, die auch als „dumme Bomben“ bezeichnet werden und ganze Häuser zerstören und alle ihre Bewohner töteten.„Man will keine teuren Bomben an unwichtige Leute verschwenden – es ist sehr teuer für das Land und es gibt nicht genügend solcher Bomben“, erklärte ein Geheimdienstoffizier. Ein anderer berichtete, die zentrale Frage für sie sei gewesen, ob der Kollateralschaden für Zivilisten einen Angriff zuließ. „Weil wir für die Angriffe normalerweise ungelenkte Bomben einsetzten. Und das bedeutete praktisch, das ganze Haus über den Bewohnern zusammenkrachen zu lassen. Aber selbst wenn ein Angriff abgewehrt wird, kümmert es einen nicht – man geht sofort zum nächsten Ziel über. Durch das System gehen die Ziele niemals aus. Es warten noch 36.000 weitere.“Wenn Israel „dumme Bomben“ benutzte, um die Häuser und Wohnungen tausender Palästinenser dem Erdboden gleichzumachen, die mit Hilfe von KI militanten Gruppen in Gaza zugeordnet wurden, könnte das dazu beitragen, die schockierend hohe Zahl der Todesopfer zu erklären.Laut den Gesundheitsbehörden im von der Hamas regierten Gebiet wurden in den vergangenen sechs Monaten in dem Konflikt 33.000 Palästinenser getötet. Nach UN-Angaben hatten allein im ersten Kriegsmonat 1.340 Familien den Tod mehrerer Mitglieder zu beklagen.Auf die Veröffentlichung der Aussagen in +972 und Local Call reagierten die IDF mit einem Statement. Darin heißt es, die Militäroperationen seien im Einklang mit den Regeln für Verhältnismäßigkeit unter internationalem Recht ausgeführt worden. Ungelenkte Bomben seien „Standardwaffen“, die von IDF-Piloten so eingesetzt würden, dass ein „hoher Präzisionsgrad“ gewährleistet sei.Lavender wird als eine Datenbank beschrieben, die dazu dient, „nachrichtendienstliche Quellen miteinander zu vergleichen, um aktuelle Informationen über militärische Akteure terroristischer Organisationen zu erhalten. Es handelt sich nicht um eine Liste bestätigter Kämpfer, die für einen Angriff in Frage kommen.“ Weiter heißt es: „Die IDF nutzen kein KI-System, das Terroristen identifiziert oder versucht vorauszusagen, ob eine bestimmte Person ein Terrorist ist.“ Außerdem: „Die Informationssysteme dienen allein als Hilfsmittel für Analysten, die Ziele ermitteln.“Lavender schuf eine Datenbank von tausenden EinzelpersonenBei früheren Militäroperationen der IDF war die Auswahl menschlicher Ziele oft ein arbeitsintensiverer Prozess. Der Guardian sprach mit mehreren Quellen über das Vorgehen in früheren Kriegen. Demnach wurde damals die Entscheidung, eine Person zu „beschuldigen“ oder als legitimes Ziel zu identifizieren, erst diskutiert und dann von einem Rechtsberater abgezeichnet.In den Wochen und Monaten nach dem 7. Oktober wurde dieses Modell zur Genehmigung von Angriffen auf menschliche Ziele extrem beschleunigt. Mit der Intensivierung der Bombardierung des Gazastreifens forderten die Kommandeure vom Geheimdienst ständig neue Ziele. „Wir wurden permanent unter Druck gesetzt: ‚Gebt uns mehr Ziele.’ Sie schrien uns regelrecht an“, berichtete ein Geheimdienstmitarbeiter. „Uns wurde gesagt: Wir müssen die Hamas jetzt fertig machen, koste es, was es wolle. Bombardiert, was immer ihr könnt.“Um diese Nachfrage zu bedienen, verließ die israelische Armee sich stark auf Lavender, um eine Datenbank mit Individuen zu erstellen, die Charakteristika eines militanten PIJ- oder Hamas-Anhängers haben sollten.Placeholder image-2Die von +972 oder Local Call veröffentlichten Berichte enthalten keine Einzelheiten über die Art der Daten, die zum Training des Lavender-Algorithmus verwendet wurden, oder dazu, wie das Programm zu seinen Schlussfolgerungen kam. In den ersten Wochen des Krieges verfeinerte die Einheit 8200 aber den Algorithmus und optimierte die Suchparameter. Nach Zufallsstichproben und Gegenprüfung der Vorhersagen schloss die Einheit laut der Quellen, dass Lavender zu 90 Prozent richtig lag. Das veranlasste die IDF dazu, seine umfassende Verwendung als Instrument zur Empfehlung von Zielen zu genehmigen.Lavender habe eine Datenbank von zehntausenden Personen erstellt, die zumeist als untergeordnete Mitglieder des militärischen Flügels der Hamas bewertet wurden. Die Datenbank wurde neben einem anderen KI-basierten Entscheidungsunterstützungssystem mit dem Namen „The Gospel“ eingesetzt, das statt Personen Gebäude und Einrichtungen als Ziele vorschlägt.Die Berichte erhalten Zeugenaussagen dazu, wie Geheimdienstoffiziere mithilfe von Lavender arbeiteten und wie die Reichweite des Rasters angepasst werden konnte. „Auf dem Höhepunkt generierte das System 37.000 Personen als potenzielle menschliche Ziele. Aber die Zahlen veränderten sich ständig, weil sie davon abhängig sind, wo man die Grenze dessen zieht, was ein militanter Hamas-Aktivist ist.“ Und das schwankte: „Es gab Zeiten, als die Definition breiter war. Dann begann die Maschine, uns alle Arten von Zivilschutzpersonal und Polizisten auszuspucken. Bomben auf sie zu werfen, wäre Verschwendung. Diese Leute helfen der Hamas-Regierung, aber sie gefährden nicht wirklich Soldaten.“Vor dem Krieg schätzten die USA und Israel die Mitgliederzahl des militärischen Flügels der Hamas auf rund 25 bis 30.000 Personen.In den Wochen nach dem Hamas-Angriff vom 7. Oktober auf den Süden Israels, bei dem militante Palästinenser fast 1.200 Israelis töteten und 240 Menschen als Geiseln nahmen, wurde laut den Geheimdienstquellen die Entscheidung getroffen, palästinensische Männer, die mit dem militärischen Flügel der Hamas in Verbindung stehen, unabhängig von ihrem Rang oder ihrer Bedeutung als potenzielle Ziele zu behandeln.In der intensivsten Phase der Bombardierung seien auch die Zielvorgaben der IDF gelockert worden. „Es gab eine sehr wenig restriktive Politik in Bezug auf die Opfer von Bombenangriffen“, so ein Geheimdienstmitarbeiter. „Eine so viel zulassende Politik, dass sie meiner Meinung nach ein Element der Rache enthielt.“Ein anderer Geheimdienstler rechtfertigte den Einsatz von Lavender zur Identifizierung weniger wichtiger Zielpersonen: „Da will man nicht so viel Arbeitskraft und Zeit investieren“. Dafür, sorgfältig „jedes Ziel zu prüfen“, sei in Kriegszeiten nicht ausreichend Zeit. „Daher ist man bereit, die Fehleranfälligkeit in Kauf zu nehmen, die die Nutzung künstlicher Intelligenz birgt, und Folgeschäden sowie den Tod von Zivilisten eines falsch gerichteten Angriffs zu riskieren – und damit zu leben.“„Es ist viel einfacher, das Haus einer Familie zu bombardieren“Die von +972 und Local Call veröffentlichten Aussagen könnten erklären, warum ein so westliches Militär wie das Israels mit fortgeschrittenen Fähigkeiten und Waffen, die chirurgisch genaue Schläge ausführen können, einen Krieg mit einer so hohen Zahl an Todesopfern führt.Wenn es darum ging, Hamas- und PIJ-Verdächtige von niedrigem Rang zu treffen, sollte demnach bevorzugt angegriffen werden, wenn diese zu Hause vermutet wurden. „Wir interessierten uns nicht nur dafür, Hamas-Kämpfer zu töten, wenn sie sich in einem Militärgebäude befanden oder gerade militärisch aktiv waren“, erklärte einer der Geheimdienstmitarbeiter. „Es ist viel einfacher, das Zuhause einer Familie zu bombardieren. Das System ist darauf ausgelegt, sie in solchen Situationen aufzuspüren.“Eine solche Strategie riskiert eine höhere Zahl von Opfern in der Zivilbevölkerung. Laut den Quellen legten die IDF im Voraus Obergrenzen für die Anzahl der Zivilisten fest, die bei einem Angriff auf einen einzelnen Hamas-Kämpfer getötet werden durften. Das Verhältnis soll sich im Laufe der Zeit verändert haben und variierte je nach Höhe des Rangs der ins Visier genommenen Person.Placeholder image-1Nach Angaben von +972 und Local Call hielt es die IDF für zulässig, bei Angriffen auf einen hochrangigen Hamas-Funktionär mehr als 100 Zivilisten zu töten. „Wir hatten eine Formel dafür, wie viele Zivilisten getötet werden konnten im Zusammenhang mit einem Brigadekommandeur, einen Bataillonskommandeur und so weiter“, wird ein Geheimdienstler zitiert. „Es gab Regeln, aber sie waren nur sehr locker“, fügte ein anderer hinzu. „Wir haben Menschen mit Kollateralschäden im hohen zweistelligen, wenn nicht gar niedrigen dreistelligen Bereich getötet. So etwas gab es noch nie zuvor.“ Dabei schwankte die Zahl, die die militärischen Befehlshaber in den verschiedenen Phasen des Krieges zu tolerieren bereit waren, offenbar erheblich.Laut einer Quelle „ging“ das Limit der erlaubten zivilen Opfer im Laufe der Zeit „rauf und runter“ und lag an einem Punkt bei nur fünf. In der ersten Woche des Konflikts dagegen habe es die Erlaubnis gegeben, 15 Zivilisten zu töten, um militante Kämpfer in Gaza auszuschalten. Allerdings seien Schätzungen der potenziellen zivilen Opfer ungenau, da man unmöglich wissen könne, wie viele Menschen sich wirklich in einem Gebäude aufhalten.Ein anderer Geheimdienstoffizier berichtete, in letzter Zeit sei die Rate der zulässigen Nebenfolgen wieder gesenkt worden. Zu einem früheren Zeitpunkt des Krieges seien sie dagegen befugt gewesen, im Zusammenhang mit einem einzigen Einsatz bis zu „20 unbeteiligte Zivilisten“ zu töten, unabhängig von Rang, militärischer Bedeutung oder Alter der Zielperson. „Man darf nicht nur jeden töten, der ein Hamas-Soldat ist, was nach internationalem Recht eindeutig erlaubt und rechtmäßig ist“, so die Quellen. „Sondern sie sagen dir direkt: ‚Du darfst dabei auch viele Zivilisten töten.‘ … In der Praxis existierte das Verhältnismäßigkeitskriterium nicht.“Dagegen pocht die israelische Armee darauf, ihre Vorgehensweise „sehe eine individuelle Bewertung des zu erwartenden militärischen Vorteils und des zu erwartenden Kollateralschadens vor … Die IDF führen keine Angriffe durch, wenn der zu erwartende Kollateralschaden im Verhältnis zum militärischen Vorteil zu hoch ist.“ Weiter hieß es: „Die IDF weisen den Vorwurf einer Politik, die die Tötung zehntausender Menschen in ihren Häusern vorsieht, entschieden zurück.“Experten für humanitäres Völkerrecht zeigten sich gegenüber dem Guardian besorgt über die Berichte, dass die israelischen Streitkräfte einen so hohen Kollateralschaden – von bis zu 20 Zivilisten – in Kauf genommen und im Voraus autorisiert habe, insbesondere wenn es niederrangige Kämpfer betraf. Das Militär müsse für jeden einzelnen Angriff die Verhältnismäßigkeit prüfen.Ein Völkerrechtsexperte des US-Außenministeriums sagte, er habe „noch nie davon gehört, dass ein Verhältnis von 1:15 als akzeptabel angesehen wird, vor allem nicht für Kämpfer der unteren Ebene. Es gibt eine Menge Spielraum, aber das kommt mir extrem vor“.Die frühere Rechtsanwältin im US-Außenministerium Sarah Harrison arbeitet heute als Analystin für die Nicht-Regierungsorganisation Crisis Group: „Es mag bestimmte Gelegenheiten geben, in denen der Kollateralschaden von 15 getöteten Zivilisten verhältnismäßig ist, und andere Umstände, unter denen das definitiv nicht der Fall ist. Man kann nicht einfach eine tolerierbare Zahl für eine Kategorie von Zielen festlegen und sagen, dass dies in jedem Fall rechtlich angemessen ist.“Wie auch immer die rechtliche oder moralische Rechtfertigung für Israels Bombardierungsstrategie aussieht: Einige seiner Geheimdienstmitarbeiter scheinen mittlerweile den von ihren Kommandeuren vertretenen Ansatz zu hinterfragen. „Niemand dachte darüber nach, was danach gemacht werden soll, wenn der Krieg vorbei ist, oder wie es möglich sein soll, in Gaza zu leben“, erklärte einer.Ein anderer erzählte, nach den Angriffen der Hamas vom 7. Oktober habe in der IDF eine Atmosphäre geherrscht, die „von Schmerz und Rachsucht geprägt“ war. „Etwas passte nicht zusammen: Einerseits gab es Frust darüber, dass wir nicht genügend angriffen. Andererseits sah man am Ende des Tages, dass weitere tausend Gaza-Einwohner tot waren, die meisten davon Zivilisten.“
×
Artikel verschenken
Mit einem Digital-Abo des Freitag können Sie pro Monat fünf Artikel verschenken.
Die Texte sind für die Beschenkten kostenlos.
Mehr Infos erhalten Sie
hier.
Aktuell sind Sie nicht eingeloggt.
Wenn Sie diesen Artikel verschenken wollen, müssen Sie sich entweder einloggen oder ein Digital-Abo abschließen.