Deutschland Auch hierzulande wollen Militärs den Einsatz von Künstlicher Intelligenz: Die Forschung hierzu nimmt langsam Fahrt auf. Über die stückweise Autonomisierung der Bundeswehr
Intelligente Granaten aus dem 3D-Drucker? So sieht militärische KI nicht aus
Montage: Ira Bolsinger für der Freitag; Material: Adobe Stock, Imago Images
Von Anfang an war der Begriff „Künstliche Intelligenz“ (KI) mit großen Erwartungen der Militärs und großen Versprechen von Rüstung und Forschung verbunden. Damit ließ sich viel Geld verdienen, auch wenn die Ergebnisse in der Summe nicht die erhofften Effekte hervorbrachten. Die Forschung und Entwicklung florierte, wann immer Risikokapital dafür zur Verfügung stand, und mündete dann wieder in Phasen der Ernüchterung. Aktuell vollziehen sich aber rasche und grundsätzliche Entwicklungen bei der militärischen Anwendung von KI.
Anstatt großer Durchbrüche vollzog sich die militärische Nutzung von KI relativ langsam und kontinuierlich. Seit Jahrzehnten wird KI dafür genutzt, logistische Prozesse zu optimier
u optimieren, die optische Aufklärung und die Bilderkennung zu verbessern oder Trainings- und Simulationsumgebungen zu schaffen. Flugabwehrkanonen verfügen bereits seit Jahrzehnten über einen „autonomen“ Modus, in dem sie ein anfliegendes Objekt als feindlich identifizieren und eigenständig bekämpfen können. Auch Cruise Missiles wurden bereits in den 1970er Jahren mit Suchköpfen ausgestattet, die feindliche Fahrzeuge erkennen und ihre Flugbahn entsprechend anpassen sollten.Seit Dezember 2001 führen vor allem die USA sogenannte gezielte Tötungen mit unbemannten Luftfahrzeugen durch, viele andere Armeen nutzen solche Drohnen schon länger auch zur Aufklärung. Zumeist handelt es sich dabei aber „nur“ um ferngesteuerte Flugzeuge, deren Fähigkeiten kontinuierlich, in den letzten 20 Jahren allerdings rasant, mit Hilfe von KI nachgerüstet wurden. Dazu gehören eine Art Autopilot für Start, Landung und Flug ins Zielgebiet. Das ist auch bei den (bislang unbewaffneten) Drohnen der Bundeswehr mittlerweile üblich. Außerdem wurden kontinuierlich die Sensoren und die Bilderkennung verbessert: Die Aufklärungsdrohne Luna der Bundeswehr kann mittlerweile eigenständig Fahrzeuge identifizieren, markieren und verfolgen. Bei kleineren Drohnen werden mittlerweile Funktionen zur Personenverfolgung und Gesichtserkennung nachgerüstet, entsprechende Forschung findet oft an zivilen Hochschulen unter vermeintlich zivilen beziehungsweise kommerziellen Szenarien statt.Mit der gestiegenen Qualität, Verfügbarkeit und Zahl von Sensoren stieg ab Mitte der Nullerjahre der Bedarf an der zunehmend automatisierten und autonomen Verarbeitung massiv. Diese „Sensor-Data-Fusion“ versucht, Sensordaten verschiedenen Typs zu integrieren, zu interpretieren und für Menschen verständlich auf einer Mensch-Maschine-Schnittstelle auszugeben – typischer Weise ein kartenbasiertes Lagebild auf einem Monitor im Lagezentrum. Diese Forschung wurde seit 2007 unter anderem aus zivilen Forschungsmitteln der EU unter dem „zivilen“ Szenario des Grenzschutzes gemeinsam mit Unternehmen der Rüstungsindustrie massiv vorangetrieben. Dabei kommen auch Verfahren des maschinellen Lernens zum Einsatz. Spätestens hier sind die Verarbeitungsprozesse, welche explizit als Entscheidungsgrundlage für Menschen dienen sollen, für diese nicht mehr nachvollziehbar.DrohnenschwärmeDie Sensor-Data-Fusion war zugleich eine weitere Triebkraft, welche die Echtzeit-Vernetzung und Kommunikation unter autonomen (Luft-)Fahrzeugen sowie mit Menschen weiter vorangebracht hat. Mittlerweile hat sich dafür der Begriff Manned-Unmanned-Teaming (MUM-T) etabliert. Er ist zugleich eng verbunden mit der Idee der Schwarmintelligenz, die seit Jahrzehnten Begehrlichkeiten beim Militär weckt – und nun tatsächlich implementiert wird.Entsprechende Grundlagenforschung für den „kooperativen“ Einsatz unbemannter Kampfflugzeuge wird seit spätestens 2002 am Institut für Flugsysteme der Bundeswehr-Uni in München durchgeführt und ab 2004 einem breiteren Fachpublikum vorgestellt. Sie steht nun mit dem Mega-Rüstungsprojekt FCAS (Future Combat Air System) vor der Umsetzung, bei dem jedes einzelne bemannte „Kampfflugzeug der nächsten Generation“ von einer Vielzahl unbemannter Flugzeuge – sogenannte „Remote Carriers“ – begleitet und unterstützt werden soll. Konzeptionell wird dabei von „Überlastungsangriffen“ gesprochen, welche eine feindliche Luftabwehr überfordern sollen. Konkret ausgeplant wurden solche Überlastungsangriffe durch NATO-Mitgliedsstaaten im Zuge der Diskussion um die Durchsetzung einer Flugverbotszone über Syrien ab 2013; vieles spricht dafür, dass Israel bei seinen sporadischen Luftangriffen auf Syrien mit Drohnen und Raketen entsprechende Konzepte bereits umsetzt.Kampf in MaschinengeschwindigkeitNeben der Luftwaffe befindet sich auch das Heer gerade in der konzeptionellen Umsetzung von Schwarmintelligenz, MUM-T und Überlastungsangriffen. Parallel dazu schrieb das Beschaffungsamt 2019 die Studie „Erzeugung eines gläsernen Gefechtsfeldes“ aus, bei der „auf allen Ebenen“ verschiedene „Arten von KI eingesetzt werden [sollen], um Soldaten effektiv zu entlasten“. Ziel war es, mithilfe eines Schwarmes kleinerer Drohnen, die an Hobbydrohnen erinnern, ein dreidimensionales Lagebild „aufzuspannen“, auf dem eigene und feindliche Kräfte sowie andere „Points of Interest“ von der KI erkannt und markiert werden. Die KI „priorisiert“ für die eingesetzten Soldat*innen die Feuerzuweisung „auf der Grundlage von Parametern wie Standort, Sichtlinie, Wirksamkeit, aktuellem Munitionsstatus und so weiter“. Die beteiligten Unternehmen, der französische IT-Dienstleister Atos (Schwarmsteuerung) und das israelische Rüstungsunternehmen Rafael (Sensor-2-Shooter Software) nennen das „Entscheidungsunterstützung“ und suggerieren, dass am Ende Menschen die Entscheidung treffen. Das Planungsamt des Heeres hingegen spricht vom „Kampf in Maschinen-Geschwindigkeit“.Zunächst deutlich harmloser wirkt der Einsatz Künstlicher Intelligenz im Informationsraum. Bei der „elektronischen Kampfführung“ geht es schon immer darum, eigene Signale zu tarnen und gegnerische aufzuspüren und zu entschlüsseln. Ähnliches gilt für die Cyberkriegführung und deren Abwehr. In der Masse an ausgetauschten Daten muss Schadsoftware entdeckt und ausgeschlossen werden. Hierzu kommt auf beiden Seiten, auch bei der Bundeswehr, KI zum Einsatz.2017 stellte das Verteidigungsministerium das neue Kommando Cyber- und Informationsraum in Dienst. Es umfasst neben den Truppenteilen zur elektronischen Kampfführung und Cyberabwehr klassisch nachrichtendienstliche Einheiten, an denen der BND beteiligt ist. Auch hier werden verschiedenste Informationen zusammengeführt und in ein Lagebild übersetzt: abgefangene Signale anderer Streitkräfte, Metadaten aus der Kommunikationsüberwachung, sogar Ethnolog*innen und Literaturwissenschaftler*innen sind eingebunden. Und auch hier soll KI helfen, alles zusammen noch besser und schneller auszuwerten.Auch im Informationsraum setzt die Bundeswehr KI einDoch unter dem Informationsraum versteht die Bundeswehr auch das, was wir den öffentlichen Diskurs nennen - in dem sie auch wirken will, zum Beispiel zur Rekrutierung. Zweifellos setzt sie umfangreich auf Social Media und andere Plattformen, die massiv KI anwenden, um gezielt ein Publikum mit passgenauen Inhalten anzusprechen, Werbung für die eigenen Narrative und eine gewisse Sicht der Dinge zu machen. Auch viele private Dienstleister und Agenturen, die für das BMVg und andere Ministerien arbeiten, rühmen sich mit dem Einsatz Künstlicher Intelligenz, um optimale Begriffe zu identifizieren, mit denen bestimmte Emotionen angesprochen werden können. Was Bundeswehr und BND in diesem Bereich selbst entwickeln und nutzen, ist demgegenüber naturgemäß reichlich intransparent.Doch der Begriff des Informationsraums wird auch jenseits der Bundeswehr zunehmend als etwas konzipiert, was verteidigt werden müsse. Entsprechend laufen aktuell auf verschiedenen Ebenen Bemühungen, die Verbreitung von Fake News und unerwünschten Narrativen umfangreich und mithilfe Künstlicher Intelligenz zu unterbinden. So träumte eine Studie des EU Institute for Security Studies (EUISS), die 2020 vom Europäischen Parlament in Auftrag gegeben wurde, dass bereits 2025 „geschätzte 95 Prozent aller Falschnachrichten innerhalb von fünf bis sieben Minuten“ nach ihrem Erscheinen bzw. dem Erreichen „europäischer Öffentlichkeiten“ entfernt werden könnten. Wie der tatsächliche Wahrheitsgehalt in dieser Geschwindigkeit ermittelt werden soll, bleibt dabei offen. Absehbar ist zweifellos, dass der Informationsraum und damit auch der öffentliche Diskurs in naher Zukunft wesentlich von KI eingeschränkt und damit im Sinne der Auftraggeber geprägt werden wird.
×
Artikel verschenken
Mit einem Digital-Abo des Freitag können Sie pro Monat fünf Artikel verschenken.
Die Texte sind für die Beschenkten kostenlos.
Mehr Infos erhalten Sie
hier.
Aktuell sind Sie nicht eingeloggt.
Wenn Sie diesen Artikel verschenken wollen, müssen Sie sich entweder einloggen oder ein Digital-Abo abschließen.