Jon Cartwright
04.12.2010 | 12:00 4

Im Babyjahr des Terminators

Kampfgerät Autonome Roboter können schon so einiges allein. Künftig sollen sie sogar ganze Kriege für den Menschen führen

Wenn eine Drohne auf einen feindlichen Kampfjet trifft, hat sie eigentlich nur eine Option: das Weite suchen. Doch als im Dezember 2002 eine unbemannte US-Drohne vom Typ Predator ins Fadenkreuz einer irakischen MiG geriet, wurde sie angewiesen, sich nicht von der Stelle zu rühren. Die MiG feuerte, die Predator feuerte zurück – das Resultat war ein Haufen Drohnenteile in der südirakischen Wüste.

Dieser Zwischenfall wird oft als der erste Luftkampf zwischen einer Drohne – einem unbemannten Luftfahrzeug, wie es korrekt heißt – und einen konventionellen, bemannten Kampfjet bezeichnet. In gewisser Weise jedoch hatte die Predator so gut wie keine Chance. Amerikanische und britische Drohnen werden aus der Ferne von Piloten bedient, die tausende von Meilen entfernt auf amerikanischem Boden sitzen. Deshalb werden die Signale für die Manöver um eine Viertelsekunde oder mehr verzögert. Geschossen auszuweichen ist also so gut wie unmöglich – es sei denn, die Drohnen könnten sich selbst steuern.

Im Juli stellte der größte Rüstungskonzern der Welt, BAE Systems, zwischen Trockennebelschwaden und rotierenden Scheinwerfern einen Prototyp vor, der womöglich genau das tun kann. Die mehr als 140 Millionen Pfund teure, ziemlich außerirdisch wirkende Drohne Taranis solle dem britischen Verteidigungsministerium zufolge ein „vollständig autonomes“ Fluggefährt sein, das tief in feindliches Gebiet eindringen kann, um Informationen zu sammeln, Bomben abzuwerfen und „sich selbst gegen bemannte und unbemannte feindliche Flugzeuge zu verteidigen“.

Taranis ist ein Beispiel für die Entwicklung hin zu autonomen Systemen: Maschinen, die ihre Entscheidungen unabhängig von menschlichem Input treffen und das Potenzial haben, die moderne Kriegsführung radikal zu verändern. Für Staaten wie die USA und Großbritannien bedeutet eine solche Autonomie größere Reichweite, mehr Effizienz und weniger Leichensäcke, die in die Heimat gebracht werden müssen. Ein britischer Sicherheitsbericht verweist darauf, sich in Zeiten eingeschränkter Ressourcen „an das Unerwartete anzupassen“. Doch unter dem technologischen Glanz autonomer Systeme wartet eine Fülle ethischer und juristischer Probleme.

Autonom statt automatisch

Es gibt bereits militärische Aufgaben, die Roboter alleine erledigen. Viele Kriegsschiffe verfügen über Gatling-Waffen als Teil des Phalanx-Systems, das automatisch auf näher kommende Geschosse reagiert. Israel hat an der Grenze zum Gaza-Streifen See-Shoot-Systeme mit Maschinengewehren aufgestellt, die automatisch auf palästinensische Eindringlinge schießen. Ein israelischer Kommandant erklärte, ein Mensch müsse „zumindest in der Anfangsphase des Einsatzes“ den Schießbefehl erteilen. Phalanx und See-Shoot sind daher nicht autonom – ein feiner, aber entscheidender Unterschied. Wie beim Getränkeautomat drückt man auf einen bestimmten Knopf und die entsprechende Flasche fällt heraus. Die Gatling-Waffe wartet bis ihr Radar ein bestimmtes Signal erhält, dann feuert sie.

Echte autonome Systeme führen wesentlich komplexere Aufgaben aus, indem sie tausende von Messwerten aus ihrer Umwelt einbeziehen und sie in sogenannte input states übersetzen, die im Computer verarbeitet werden, um das bestmögliche Ergebnis zu finden. Manche glauben, dass es im Prinzip die gleiche Methode ist, nach der wir Menschen unsere Entscheidungen treffen.

Für Waffensysteme wie Taranis ist geheim wie autonom sie tatsächlich arbeiten können, doch andere Projekte lassen erahnen, womit zu rechnen ist. Am Robotics Institute der Carnegie Mellon University in Pennsylvania entwickeln Forscher für das Pentagon einen Panzer mit sechs Rädern, der sich selbstständig durch ein Schlachtfeld bewegt und den Spitznamen „Crusher“ („Brecher“) trägt, weil er Autos problemlos plattwalzt. Der derzeitige Prototyp, bekannt auch als Autonomous Platform Demonstrator (APD), wiegt neun Tonnen und schafft 80 Kilometer in der Stunde.

Entscheidend für die Autonomie des APD ist eine Reihe hierarchisch angeordneter Instrumente zur Selbststeuerung. Zuerst lädt er eine grobe Route von einer Satellitenkarte wie Google Earth herunter. Sobald er sich in Gang gesetzt hat, bauen Videokameras ein 3-D-Bild der Umgebung auf, damit er eine genauere Route um Hindernisse herum planen kann. Für Feinabstimmungen messen Laser dann präzise den Abstand zur unmittelbaren Umgebung ab.

Projektleiter Dimi Apostolopoulos sagt, der APD könne etwa mit Auskundschaftungssystemen oder Waffen bestückt werden, in erster Linie für den Einsatz in Gebieten, in denen Kommandeure nur ungern menschliche Soldaten einsetzen. „Wir glauben daran, dass die Einführung von Robotertechnik die Kriegsführung verändern wird“, sagt Aposolopoulos. „Daran kann kein Zweifel bestehen. Sie kann eine Menge Menschen aus den brenzligsten Situation holen. Und ich bin überzeugt, dass es für beide Seiten eine gute Sache ist.“

Gekaperte Insekten als Waffe

Militärische Roboter gibt es in allen Größenordnungen, manche sind beeindruckend, andere grotesk. Boston Dynamics etwa entwickelt im Auftrag der US Defence Advanced Research Projects Agency (Darpa) einen vierbeinigen Roboter, der „überall hingehen kann, wo Menschen und Tiere hin können“. BigDog hat Sensoren und Triebwerke, um sein Gleichgewicht zu regulieren, und trottet wie eine kopflose Ziege über unwegsames Gelände. Noch weit unheimlicher ist die Idee der Darpa, Insekten für Überwachsungszwecke zu kapern – mit anderen Worten: ein unbemanntes, biologisches „Luftfahrzeug“ nutzbar zu machen, das bereits autonom ist. Den Insekten sollen während der Metamorphose winzige, elektromechanische Kontrollinstrumente implantiert werden. Einige Wissenschaftler halten diese Idee allerdings noch für zu weit hergeholt.

Klar ist aber, dass massiv in die militärische Robotertechnik investiert wird, denn wie Gordon Johnson vom US JointForces Command sagt: „Sie werden nicht hungrig. Sie haben keine Angst. Sie vergessen ihre Dienstanweisungen nicht.“ Worte, die an den Science-Fiction-Film Nummer 5 lebt! erinnern, in dem der Wissenschaftler Newton Crosby einen autonomen Militärroboter erschafft und sagt: „Er fürchtet sich nicht. Er freut sich nicht. Er wird nicht traurig. Er führt nur Programme aus!“ Im Film desertiert der Roboter schließlich.

Was geschieht, wenn mit Militärrobotern im echten Leben etwas schief geht? Im Juni veröffentlichte der damalige Chefwissenschaftler der US-Air-Force, Werner Dahm, den Bericht Technology Horizons, in dem er schreibt, dass autonome Systeme für die Zukunft der Luftwaffe essenziell seien, aber wie alle militärischen Systeme einer genauen Überprüfung unterzogen werden müssten, bevor man ihnen vertraut. Die Tests sind bloß immer noch dieselben wie zu Zeiten des Apollo-Programms. Dahm nennt es „rohe Gewalt“: Jeder Zustand eines Systems wird einfach so lange getestet, bis 100 Prozent zertifiziert werden können. Ein Großteil der Kosten für Kampfflugzeuge geht für solche Kontrollen drauf. Doch für autonome Systeme, die beinahe unendlich viele input states haben, kommt „rohe Gewalt“ nicht mehr in Frage. Dahm sagt, man müsse sich mit weniger als 100 Prozent zufrieden geben.

„Der Durchschnittsbürger sagt vielleicht, 99,99 Prozent seien nicht genug“, meint Dahm. „Zunächst wäre er überrascht zu erfahren, dass sein Auto nicht mal zu 99,99 Prozent zertifiziert ist ... und dann muss er wissen, dass wir niemals hochgradig automatisierte Systeme haben werden, wenn man auf 100 Prozent beharrt.“ Kritisiert wird außerdem, dass der Einsatz von Drohnen gegen Aufständische in Pakistan ein Gesetz Gerald Fords aus dem Jahr 1976 verletze, das politische Attentate verbietet. Für autonome Systeme, die unabhängig vom Menschen agieren, liegt die Sache sogar komplizierter. „Wenn eine Maschine auf einen Krankenwagen anstatt auf einen Panzer schießt, wer ist dann schuld?“ fragt der Anwalt und Systemingenieur Chris Elliott.

Noel Sharkey von der Universität Sheffield sagt, es sei für autonome Roboter derzeit unmöglich, zwischen Zivilisten und Kombattanten zu unterscheiden – wie es das Völkerrecht bestimmt. „Es gibt so viele Beispiele aus dem Irakkrieg, wo Soldaten mit angelegten Waffen erschienen und dann feststellten, dass die Aufständischen tatsächlich einen Sarg trugen. Also senkten die Soldaten ihre Maschinengewehre und ließen die Aufständischen passieren. Ein Roboter könnte eine solche Entscheidung nicht treffen. Nach welchen Merkmalen würde er suchen?“

Kampf ohne Menschen

Das Problem sind autonome Schläge – ein Roboter entscheidet selbst, wann er feuert – und hier scheiden sich die Geister. Einem Sprecher des britischen Verteidigungsministeriums zufolge „werde es auf absehbare Zeit immer notwendig bleiben, dass angemessen ausgebildete Menschen beteiligt sind“, wenn unbemannte Luftfahrzeuge Angriffe fliegen. Dahm ist der Ansicht, dass dieser Aspekt im neuen Flight Plan unterzugehen scheint. „Menschen werden zunehmend nicht mehr im, sondern über dem Geschehen stehen, also die Ausführung von Entscheidungen kontrollieren“, schreibt er in seinem Bericht. „Gleichzeitig wird die künstliche Intelligenz Systemen ermöglichen, Kampfentscheidungen zu treffen ... ohne dass es menschlicher Beteiligung bedarf.“ Dies erfordere aber, dass politische und militärische Führer juristische und ethische Fragen klärten. Im US-Office of Naval Research hält man es für ein „vernünftiges Ziel“, autonome Roboter so zu programmieren, dass sie „mindestens so ethisch“ wie Soldaten handeln. Die Behörde zieht in Erwägung, dass autonome Roboter eines Tages wie Kinder als quasi-juristische Personen behandelt werden können. Rob Alexander von der Universität York geht das zu weit: „Wir reden hier nicht über Star-Trek-Androide. Diese Dinger sind Maschinen und wer sie bedient oder entwickelt hat, muss für das verantwortlich sein, was sie tun.“

Angesichts der Grenzen, die den Robotern heute gesetzt sind, werden die ethischen und juristischen Probleme der Autonomie zunächst hypothetisch bleiben. Dahm zufolge werden autonome Systeme als Komponenten militärischer Systeme Aufgaben erledigen, die für den Menschen zu aufwendig sind. Satelliten könnten zum Beispiel selbstständig Aufklärungsdaten filtern, damit sie nur die Bilder übermitteln, auf denen erkennbare Ziele zu sehen sind. Schon heute verwenden Militärs Software mit autonomen Elementen für kniffelige Fragen, wie die Wahl der richtigen Munition. Im Verlauf der nächsten Jahre könnten immer mehr taktische Entscheidungen, zunächst vielleicht nur banale, an Maschinen abgegeben werden.

Müssen wir uns also vor einer dystopischen Zukunft wie aus Science-Fiction-Filmen fürchten – einer Welt, die von Robotern mit Bewusstsein übernommen wird? Das ginge am eigentlichen Punkt vorbei: Wenn wir Fleisch und Blut gegen Schaltkreise und Stahl eintauschen, dann müssen unsere Befürchtungen genau in die andere Richtung gehen. Um es mit Sharkey zu sagen: „Ich glaube nicht, dass wir uns auf dem Weg in eine Zukunft wie in Terminator befinden. Dort waren die Roboter schlau.“

Jon Cartwright (jcartwright.co.uk ) ist Physiker und lebt als freier Autor in Bristol. Er schreibt unter anderem für den Observer

In jeder Größe was dabei: Der Kriegsroboterzoo

Klobig ist der APD, aber er kann mehr als bloß Autos zerquetschen. Er fährt über ein Meter hohe Hindernisse, guckt per Teleskopauge über Bäume und falls nötig legt er die Räder schief. Dabei bleibt er klimafreundlich: Unter der Haube rattert ein Hybridantrieb, mit dem der kriegsbedingte Benzinverbrauch verringert werden soll. Sicherheitsbedenken? Keine. Ein spezielles System soll verhindern, dass das Monster versehentlich die eigenen Soldaten zermatscht.

So gut wie die Natur kann es die Künstliche Intelligenz noch nicht der kopflose BigDog versinnbildlicht das ganz treffend. Seine Technik hinkt dem Zeitgeist überhaupt etwas hinterher: Ein Go-Kart-Motor treibt die Beinchen an, ein Pentium 4-Prozessor steuert sie mithilfe einer Software, die in C++ programmiert wurde. Dass der Roboterhund jemals zum Krieger wird, darf bezweifelt werden, hält er doch nur 2,5 Stunden durch, anstelle der geplanten 24.

Der Trend geht ohnehin zur Miniatur. Abgesehen von der Idee, lebende Insekten zu manipulieren, versucht man, immer kleinere, unauffällige Drohnen zu bauen. Das Quadrokopter-Modell Quadri-France des französischen Herstellers Taser tat sich allerdings noch nicht ganz als unsichtbar hervor: Das fliegende Auge soll auf einem Polizeieinsatz gegen Demonstranten in Reims eingesetzt worden sein. Dafür erhielt Taser den Big Brother Award 2008.

Übersetzung: Christine Käppeler

Kommentare (4)

Onkel Wanja 04.12.2010 | 23:05

Noel Sharkey von der Universität Sheffield meint: „Ich glaube nicht, dass wir uns auf dem Weg in eine Zukunft wie in Terminator befinden. Dort waren die Roboter schlau.“

Na da sind wir aber alle beruhigt und können uns flugs wieder an unseren „dummen“ PC setzen.....
Ich meine aber, wir sollten uns ob solcher Verharmlosung einer technologischen Entwicklung nicht sedieren lassen. Was heute noch lächerlich daher kommt, Hundekampfroboter, oder automatisierte leicht gepanzerte Fahrzeuge wird in 20 bis 50 Jahren bestimmt keinen Hochmut in unseren Nachkommen aufkommen lassen!
Dieser ganze Artikel nimmt das Thema nicht wirklich ernst und ich werde versuchen dem entgegen zu steuern.
Die Grundlegende Gefahr wird nicht mal angesprochen:
Die kapitalistische Produktionsweise und das damit einhergehende Herrschaftsgefüge liebt und fördert das verwandeln von bilogischen Systemen, Rohstoffen in die schöne Maschine, den glänzenden scharfen Stahl. Der kapitalistisch deformierte Mensch, liebt alles tote, möchte Tot sein, sich am liebsten in eine Maschine verwandeln, wurde seit Anbeginn zum Anhängsel der schönen Maschine degradiert!
Die Entwicklung von Industrierobotern wie auch Kampfrobotern hat zum Ziel alle menschlichen Bewegungseigenschaften seine Sinnesorgane und Sensorik nach zu ahmen, nur das die nachgeahmten Eigenschaften mit maschineller Kraft und Geschwindigkeit den Menschen schon jetzt in einigen Bereichen in den Schatten stellt.
Unser System ist drauf ausgelegt, denn Menschen, ja die Menschheit überflüssig zu machen. Was man sich technologisch erhofft, wird auch entwickelt werden. Der verspielte, dem Selbstzweck der Machbarkeit verfallene Wissenschaftler ist in der Industrie und Wissenschaftswelt abgedroschene Realität und handelt nach der Maxime: Warum leckt der Hund sich die Eier? Weil ers kann..
Ich würde daher nicht über unbemannte selbststeuernde Kampfflugzeugen die Augenbrauen hochziehen und die Entwicklung Bluternst nehmen. Ist die Technologie soweit, sind unbemannte teil -oder vollautomatisch fliegende System im Luftkampf, im Zielanflug und in der Bekämpfung von Bodenzielen jedem vom Menschen direkt gesteuerten Waffensystemen überlegen. Sink und Steigraten, Beschleunigung und Flugeigenschaften sind dann nicht mehr an den zerbrechlichen menschlichen Körper gebunden. Lebenserhaltungssysteme sind sehr Teuer und können eingespart werden, was die Waffentragfähigkeit zudem noch erhöht. So wie jetzt schon die Drohnen werden diese System dann von Boden aus überwacht und wenn nötig in automatische Abläufe eingegriffen. Die Entwicklung von Kampfrobotern sind nicht von der Kybernetik grenzen gesetzt, sondern vom Entwicklungsstand im Bereich der künstlichen Intelligenz und der Entwicklung Leistungsfähigen und kostengünstigen Akkumulatoren. Da sag ich nur: Alles eine Frage der Zeit, irgendwann werden sie auf zwei oder vier Beinen vor der Menschheit stehen.

Übrigens sollte Herr Sharkey mal die Terminator-Reihe vollständig anschauen....
Im dritten Teil wird erklärt wie die Maschinen die Macht über die menschliche Welt übernehmen:
„Kurz vor dem Beginn des atomaren Endszenarios versucht John Connor noch, den „Zentralcomputer“ abzuschalten. Im Gegensatz zu den sonst üblichen Hollywood-Happy-End-Lösungen muss er konsterniert feststellen, dass es keinen Zentralcomputer gibt, den man einfach abschalten könnte – der klassische Held ist machtlos. Sein Gegner Skynet hat ein Bewusstsein aufgrund der Vernetzung von Millionen von PCs und Großrechnern erlangt. Skynet ist damit eine moderne Form der Hydra, die zu viele Köpfe hat, um sie alle abschlagen zu können. Daher kommt es am Ende zur totalen Vernichtung: Ein großer Teil des Kernwaffenarsenals der Menschheit kommt zum Einsatz.“ Aus Wikipeidia
de.wikipedia.org/wiki/Terminator_3_%E2%80%93_Rebellion_der_Maschinen

Hollywood-Mainstream-Aktion-Kino muss nicht zwangsläufig dumm und Handlungslos sein, diese Filmreihe beweist das ganz gut. Da ich von Asimov, P.C.Dick, Stanisław Lem, A.C Clark und unzählige andere Science-Fiction Autoren literarisch Geprägt wurde, vermochte ich den Bezug und die Ernsthaftigkeit der betreffenden Auseinandersetzung mit den gefahren technologischer Entwicklung zu erkennen.

chrislow 09.12.2010 | 18:03

Wie jetzt,.... es ist Krieg und keiner geht hin?

Irgendwie könnten wir dann auch gleich ein entsprechendes PC-Spiel laden und im Netzwerk den Feind besiegen ... oder besiegt werden.

In diesem Szenario macht die Roboter-Waffe keinen Sinn. Sie wäre nur die reine Verschwendung von zumindest allen Rohstoffrecourcen.

Weiter werde ich den Gedanken nicht denken. Und ich wünsche mir angesichts meiner Befürchtungen die Keule aus der Steinzeit zurück - als Mittel zum Zweck - 1zu1 war eigendlich keine schlechte Methode. Zumindest, wenn überhaupt Krieg, dann .....