Künstliche Intelligenz Englands Premier Rishi Sunak lud zum KI-Gipfel, und nicht nur Elon Musk und Kamela Harris kamen: Was Politiker und Unternehmer eigentlich meinen, wenn sie über die Gefährlichkeit von „Künstlicher Intelligenz“ diskutieren
Robert Habeck, Ursula von der Leyen – sogar US-Vizepräsidentin Kamala Harris: Sie alle kamen zu Sunaks KI-Gipfel
Foto: Toby Melville/WPA Pool/Getty Images
Wie nur, fragen sich die führenden Industriestaaten, kann die gefährliche künstliche Intelligenz gebändigt werden? Auf einer vom britischen Premier Rishi Sunak ausgerichteten Londoner Konferenz haben sich die US-Vizepräsidentin Kamala Harris, der chinesische Technologie-Vizeminister Wu Zhaohui, die EU-Kommissionspräsidentin Ursula von der Leyen und andere hinter eine Erklärung gestellt, die sich für mehr Kontrolle dieses so segensreichen wie auch irgendwie schrecklichen Dings „KI“ einsetzt. Eingeladen war auch der Multimilliardär Elon Musk. Als Unternehmer, dachte man wohl, steht er näher an der Quelle des Verhängnisses.
Ist KI intelligent?
Aber auch für ihn ist KI ein, man möchte fast sagen: heiliges Rätsel, d
ie schrecklichen Dings „KI“ einsetzt. Eingeladen war auch der Multimilliardär Elon Musk. Als Unternehmer, dachte man wohl, steht er näher an der Quelle des Verhängnisses.Ist KI intelligent?Aber auch für ihn ist KI ein, man möchte fast sagen: heiliges Rätsel, dem er sich nur kniefällig nähern kann. KI sei „intelligenter“ als der Mensch, behauptet Musk. Nur, wie soll man so ein Wesen kontrollieren können? Das geht nicht, man müsste es dann schon vernichten – solange es noch schwach ist, in den Kinderschuhen steckt –, um sich vor ihm zu schützen. Aber vernichten ist auch keine Option, weil KI so nützlich ist. Andere sagen deshalb, lasst dem Ding doch erst mal freien Lauf, und wenn wir absehen, dass es sich gräulich erhebt, können wir immer noch eingreifen.Ist das nicht verrückt, ein lebloses Gestell zu behandeln, als ob es ein Subjekt wäre?Ist KI intelligent? Die Frage stellt sich nicht deshalb, weil an seiner Gefährlichkeit zu zweifeln wäre. Ein Revolver zum Beispiel ist gefährlich, aber deshalb nicht intelligent. Auch der Umstand, dass nach der Kontrolle von KI gefragt werden muss, beweist keine gar noch übermenschliche Intelligenz. Denn daraus, dass überlegene Intelligenz nicht kontrolliert werden kann, folgt nicht im Umkehrschluss, dass das nicht Kontrollierbare überlegene Intelligenz sei. So verliert auch der lebendige Körper, wenn er stirbt, die Kontrolle über das Zusammenspiel seiner Organe. Und auch ein Wesen, das die größte physische Macht erlangt hat, zugleich aber sehr dumm ist, kann nicht kontrolliert werden.Diese Vergleiche führen weiter. Hört sich Musks Warnung nicht wie eine Projektion an? Vom Kapital hat Karl Marx gezeigt, dass es sich wie ein „automatisches Subjekt“ bewegt, das sich immerzu vergrößern muss. Dieser Subjektcharakter ist ideologischer, aber real wirksamer Schein. Die reale Wirksamkeit liegt in dem, was uns heute als Zwang zum ökonomischen „Wachstum“ erscheint: Das Kapital muss wachsen, auch wenn es der Ökologie schadet, da können wir bloßen Menschen nichts tun. Für den Kapitalisten Musk reduziert sich der Zwangscharakter des Kapital-Subjekts auf den zwingenden Selbstlauf einer technischen Entwicklung, die dabei ist, den Menschen zu überholen. Auch dass das Kapital am Ende unkontrollierbar wird, wie Marx vorausgesagt hat, projiziert Musk auf die Technik, und nicht nur er.Was uns der Physiker Michio Kaku erklärtWenn KI ein Subjekt wäre, hätte es Intelligenz. Mit der Intelligenz ist es aber nicht weit her. „Angesichts eines Tisches“, erklärte uns vor ein paar Jahren der Physiker Michio Kaku, erkennen Roboter „nur Geraden, Quadrate, Dreiecke und Ovale. Sie können diese Elemente nicht zu einem identifizierbaren Ganzen zusammenfügen. Sie verstehen das Konzept der ‚Tischheit‘ nicht. Daher fällt es ihnen schwer, ihren Weg durch einen Raum zu finden“; wenn sie sich „auf der Straße orientieren sollen, sind sie völlig überfordert“. Ist das ein Wunder? Ein „Ganzes“, ein „Konzept“, einen Begriff also zu bilden, wie soll das eine Maschine können, ein Nicht-Subjekt? Der Zusammenhang zwischen Subjektivität und Begriffsbildung wird in der Philosophie seit Immanuel Kant diskutiert. Über Begriffe lesen wir bei Ludwig Wittgenstein, dass es nicht einmal reicht, sie durch Eigenschaften zu definieren, sondern man muss ihren Gebrauch kennen, der in verschiedensten „Sprachspielen“ verschieden ist. Oft wird er gar nicht bewusst. Außerdem schaffen Menschen neue Begriffe aufgrund neuer Erfahrungen. KI kann das alles nicht. Sie ist nur ein sehr nützliches Werkzeug.Die Gefährlichkeit von KI ist gerade eine Folge ihrer Begriffslosigkeit. So wird es uns auch erklärt: Man programmiert sie mit Zielen, aber wenn das Ding die Ziele falsch „versteht“, kommt Unerwünschtes heraus. Zum Beispiel, sie soll ein Spiel nicht verlieren. Aber mit den Begriffen Spiel und Verlieren kann sie nichts anfangen, also gehorcht sie dem Programmierbefehl dadurch, dass sie das Spiel unendlich pausieren lässt. Man stelle sich einmal den Befehl vor, in einem Wohnzimmer alle Waffen zu zerstören. Waffen sind Dinge, mit denen Menschen verletzt oder getötet werden können. Welche Dinge wird KI nicht zerstören?Und damit sind wir bei der Gefahr angelangt. Sunak, Harris, Zhaohui, von der Leyen und so weiter wissen ganz genau, dass es sich um eine militärische Gefahr handelt. Ihre Staaten werden sich überhaupt nicht scheuen, die Waffen immer gefährlicher zu machen, mit so viel KI wie irgend möglich, und dabei können Waffen herauskommen, die sie nicht mehr unter Kontrolle haben. Biowaffen zum Beispiel. Es geht nicht um die Kontrolle eines leblosen Dings. Es ginge darum, die Staaten zu kontrollieren, die sich auf den großen Krieg vorbereiten.
×
Artikel verschenken
Mit einem Digital-Abo des Freitag können Sie pro Monat fünf Artikel verschenken.
Die Texte sind für die Beschenkten kostenlos.
Mehr Infos erhalten Sie
hier.
Aktuell sind Sie nicht eingeloggt.
Wenn Sie diesen Artikel verschenken wollen, müssen Sie sich entweder einloggen oder ein Digital-Abo abschließen.