Der Killerroboter ist eine klassische Figur der Science-Fiction. Nun schickt er sich an, aus dem Reich der Fiktion in die Wirklichkeit einzutreten. Denn die rasanten Entwicklungsfortschritte im Bereich Künstliche Intelligenz (KI) rücken die Herstellung und den Einsatz von autonom agierenden Waffensystemen immer näher. Die Vorteile liegen auf der Hand: Roboter sind belastbarer als Menschen. Ihr Einsatz verspricht im Vergleich kostengünstiger zu sein. Außerdem schont man das Leben der eigenen Soldaten.
Jüngst hat die britische Regierung bekannt gegeben, bis 2025 einen unbemannt fliegenden Kampfjet namens Tempest entwickeln zu wollen. Die Öffentlichkeit beruhigt man mit der Versicherung, die Entscheidung über Tod oder Leben bliebe stets in menschlicher Hand. Ein haltloses Versprechen. Im modernen Luftkampf ist dasjenige Waffensystem im Vorteil, das über die kürzere Reaktionszeit verfügt. Der Mensch steht hier auf verlorenem Posten.
Falls ihre Herstellung nicht geächtet und das Verbot kontrolliert wird, droht eine Rüstungsspirale mit neuartigen Hochgeschwindigkeitswaffen, die dann nicht nur den Großmächten zur Verfügung stehen werden, sondern über kurz oder lang auch in den Besitz von kleineren Staaten oder kriminellen Organisationen gelangen würden.
Insofern ist es sehr zu begrüßen, dass mehrere Tausend Wissenschaftler und Mitarbeiter von Technologiekonzernen am Rande einer internationalen Konferenz über KI in Stockholm erklärten, sich nicht an der Entwicklung, Herstellung oder dem Verkauf solcher Mordmaschinen beteiligen zu wollen. Trotzdem bereitet der Aufruf Bauchschmerzen. Warum? Das liegt an den Initiatoren. Organisiert wurde die Aktion vom Future of Life Institute, einer von dem Kosmologen Max Tegmark und dem Multimilliardär Elon Musk mit einer 10-Millionen-Dollar-Spende 2014 in Cambridge (USA) gegründeten privaten Einrichtung, die sich der Erforschung sogenannter existenzieller Risiken verschrieben hat.
Der Ausdruck „existenzielles Risiko“ wurde geprägt von dem Philosophen Nick Bostrom, der in Oxford eine ähnlich orientierte Denkfabrik gegründet hat. Als Transhumanisten glauben sie daran, dass alle drängenden Probleme – vom Hunger über den Klimawandel bis zur Sterblichkeit – technisch lösbar sind. Soziale Ursachen sind für sie vernachlässigbar. Zugleich befürchten sie die Machtübernahme einer künstlichen „Superintelligenz“ (Bostrom) noch bevor es Forschern gelingt, den Tod zu besiegen.
So richtig und wichtig die Initiative zur Ächtung autonomer Waffensysteme auch ist: Die Friedensbewegung und seriöse Wissenschaftler müssen aufpassen, sich nicht vor den Karren solcher Ideologen spannen zu lassen. Das Future of Life Institute ist dabei nur eine von vielen Einrichtungen dieser Art, hinter denen Tech-Milliardäre stehen. Die Verflechtung von transhumanistischen Netzwerken, kapitalistischer Digitalwirtschaft und privaten Forschungsinstituten zur Technikfolgenabschätzung ist selbst ein ernstzunehmendes Problem, das kritisch beleuchtet gehört.
Deutlich mehr öffentliche Gelder müssen in eine von der Privatwirtschaft unabhängige Expertise fließen. Das sollte auch die Bundesregierung beherzigen, wenn sie beginnt, ihre noch sehr an ökonomischen Verwertungsinteressen orientierte „Strategie Entwicklung Künstliche Intelligenz“ in die Tat umzusetzen.
Was ist Ihre Meinung?
Kommentare einblendenDiskutieren Sie mit.