Genosse Roboter und der rote Knopf

Künstliche Intelligenz Google arbeitet an einem Notschalter für Maschinen, die außer Kontrolle geraten. Doch die Geschichte lehrt, dass die Vorsorge zum Faktor der Katastrophe werden kann
Genosse Roboter und der rote Knopf
Algorithmische Stopptaste? Erinnert an Dystopien wie Stanley Kubricks „2001“

Foto: AD/Imago

Es klingt nach Science-Fiction: Google will einen Notschalter für Künstliche Intelligenz (KI) entwickeln. Laurent Orseau von DeepMind, einer Londoner Tochterfirma des Konzerns, und Stuart Armstrong von der Oxford-Universität legten jüngst in einer Studie mit dem Titel Safely Interruptible Agents dar, warum: „Wenn eine künstliche Intelligenz selbstständig unter menschlicher Aufsicht arbeitet, muss der Mensch den großen roten Knopf drücken können, um das Programm daran zu hindern, eine potenziell gefährliche Aktion weiter auszuführen – gefährlich entweder für das Programm oder für den Menschen oder die Umwelt.“ Genosse Roboter muss lahmgelegt werden können, bevor er eigenmächtig Unheil anrichtet.

Dass nun ernsthaft an einer algorithmischen Stopptaste gearbeitet wird, beschwört nicht nur popkulturelle Dystopien, wie man sie aus Filmen wie 2001, Matrix oder I, Robot kennt, sondern ruft auch jene „Dämonie der Dinge“ auf den Plan, die als Merkmal der Moderne firmiert und die die Kulturwissenschaftlerin Eva Horn 2014 in ihrem Buch Zukunft als Katastrophe beschrieben hat. War der katastrophistische Diskurs zuvor „nur“ von drohender Überbevölkerung, Klimaveränderungen oder apokalyptischen Strafszenarien geprägt, kommt im 19. Jahrhundert noch das technische Unfalldenken hinzu. „Im Unfall“, erklärt Horn, „enthüllt sich das Wesen des Technischen als immer schon angelegte Tendenz zur Dysfunktion, zur Zerstörung, zum Katastrophischen.“

Menschen seien von jeher davon fasziniert, „dass Maschinen etwas selbstständig, zweckgerichtet tun können“, sagt auch der Technikhistoriker Thomas Rid im Gespräch mit dem Freitag. Schon lange vor der Entstehung von KI herrschte die Angst vor der „Tücke des Objekts“, wie sie Friedrich Theodor Vischer 1879 in seinem Roman Auch Einer geschildert hat. Jene Furcht also, dass selbst kleinste Dinge wie ein Jackenknopf ein Eigenleben führen und sich vom Knecht zum Herren des Menschen aufschwingen können. Waren schon die Romantiker von vermeintlich magisch beseelten Gegenständen fasziniert, diente Vischers literarisch inszeniertes Unfallwissen als eine Art Blaupause für technische Sicherheitsdiskurse.

Trotz mancher Maschinenstürmerei setzte sich im 19. Jahrhundert die Erkenntnis durch, dass Kulturpessimismus und Technikfeindlichkeit keine langfristigen Optionen sind. Daher ging es fortan nicht darum, auf Maschinen zu verzichten, sondern sie sicherheitstechnisch einzuhegen. So entstand aus dem 1866 gegründeten „Dampfkessel-Überwachungs- und Revisions-Verein (DÜV)“ der TÜV, und durch Technikfolgeabschätzung und Vorsorgeprinzip entwickelte sich eine neue Form des Managements von Nichtwissen. Eva Horn schreibt: „Unfälle werden bewusst simuliert, um etwas über ein ,Verhalten‘ des Dings zu erfahren, das im ,Nicht-Vorhergesehenen‘ (…) lauert.“

Doch wir kennen auch die eigentümliche Dialektik, dass die Vorsorge selbst zum Faktor der Katastrophe werden kann. Etwa beim Reaktorunfall in Tschernobyl. Ausgangspunkt für die komplexe Kettenreaktion, die letztlich zum Super-GAU führte, war ein Sicherheitstest der Notstromversorgung. Ähnliches könnte auch bei der KI der Fall sein. Immerhin erwähnen Armstrong und Orseau in ihrer Studie die hypothetische Möglichkeit, dass sich die entsprechende Maschine der Existenz des roten Knopfs bewusst sein könnte – und ihn deshalb ignoriert.

06:00 16.06.2016
Geschrieben von
Aboanzeige Artikel Aboanzeige Artikel

Kommentare 3