Die Filme spielen in einer undefinierten Zukunft. Wenn es nach Ray Kurzweil geht, ist diese allerdings nicht mehr weit entfernt. Der technische Direktor von Google ist in den USA dafür bekannt, den sogenannten Transhumanismus populär gemacht zu haben. Maschinen und Menschen verschmelzen in seiner Vision zu Superintelligenzen. Die Welt von „Transcendence“ und “Her” könnte ihm zufolge schon 2029 Realität sein.

Das Gebiet der „Künstlichen Intelligenz“ (KI) ist ein Spezialfach der Informatik. Aber sobald eine KI-Technik in der Anwendung funktioniert, verliert sie dieses Etikett. Wenige Nutzer wissen beispielsweise, dass der Suchalgorithmus von Google täglich millionenfach angewandte KI-Technik im Internet ist.

In dem von Kurzweil vertretenem (und vom Mathematiker und Science-Fiction-Autor Vernor Vinge entlehnten) Konzept der “Singularität” überschlägt sich die technologische Neuerungsrate, sobald sich Maschinen mittels Künstlicher Intelligenz selbst verbessern können. Der technische Fortschritt würde so extrem beschleunigt. Mensch und Maschine verschmelzen miteinander, so dass es keinen Unterschied mehr zwischen ihnen gibt. Weil der Mensch letztendlich nur aus Daten besteht, kann er sich ab diesem Zeitpunkt auf einen Server laden und ist somit unsterblich. Trancendence lässt grüßen.

Kurzweils Theorie steht in der Tradition des sogenannten Transhumanismus. Dieser ist eine philosophische Denkrichtung, die die Grenzen menschlicher Möglichkeiten durch den Einsatz von Technik erweitern will. Manche Wissenschaftler halten Transhumanismus für die gefährlichste Idee der Welt. Denn für die Anhänger dieser Theorie hat künstliche Intelligenz ausschließlich positive Auswirkungen. Der Mensch erweitert seine Fähigkeiten und wird extrem leistungsfähig. Risiken und Nebenwirkungen werden komplett ausgeblendet.

Die könnten verheerend sein, meint Stephen Hawking. Anfang des Monats warnte er in einem Artikel in der Zeitschrift “The Independent” vor den Gefahren der künstlichen Intelligenz. Es könne sich sich als schlimmster Fehler der Geschichte herausstellen, so Hawking, das Konzept einer hochintelligenten Maschine als “Science Fiction” abzutun.

In Zukunft könnte die Entwicklung der Künstlichen Intelligenz außer Kontrolle geraten. Sie wäre dann zum Beispiel in der Lage, Finanzmärkte zu überlisten, menschliche Führungspersonen zu manipulieren und sogar Waffen zu entwickeln, „die wir nicht einmal verstehen könnten“.

Auf kurze Sicht sei der Einfluss von KI davon abhängig, wer sie kontrolliert, während bei den langfristigen Auswirkungen nicht einmal klar sei, ob sie überhaupt kontrolliert werden könnte.

Das Konzept dieser Technik habe daher das Potenzial, „entweder das Beste oder das Schlechteste zu sein, was der Menschheit jemals passiert.“ Das hänge ganz davon ab, wie gut diese Technologie erforscht werde, um die unzähligen Vorteile und Risiken abzuwägen.

Abgesehen von einigen Instituten wie dem Cambridge Centre for the Study of Existential Risk oder dem Future of Life Institute stelle jedoch kaum jemand ernstzunehmende Nachforschungen zu diesem Thema an.