Cyborg gegen KI? Elon Musks "Neuralink"

Künstliche Intelligenz Elon Musk will Computerchips in menschliche Gehirne implantieren -- zunächst, um medizische Probleme zu lösen; später, damit Menschen mit KI-Systemen mithalten können

Bei diesem Beitrag handelt es sich um ein Blog aus der Freitag-Community.
Ihre Freitag-Redaktion

SpaceX-Gründer Elon Musk bei dem erfolgreichen Start der Rakete SpaceX Falcon 9 im Kennedy Space Center in Florida
SpaceX-Gründer Elon Musk bei dem erfolgreichen Start der Rakete SpaceX Falcon 9 im Kennedy Space Center in Florida

Foto: Saul Martinez/Getty Images

Auf den Unternehmer Elon Musk scheint der etwas abgegriffene Begriffs des „Machers“ noch zu passen: Elektroautos nicht nur bauen, sondern als attraktiv vermarkten? Das tut Musk mit seiner Firma Tesla, in die er seit 2004 investiert. Dafür in Windeseile eine Fabrik in Brandenburg hochziehen? Scheinbar trotz Protesten kein Problem. Eine private Alternative zur staatlichen US-Raumfahrt bieten? Musk und SpaceX tun das seit 2002; vor ein paar Monaten erstmals auch mit zwei Astronauten an Bord. Menschen und Fracht mit fast Schallgeschwindigkeit durch Tunnelröhren transportieren? Daran arbeitet seit 2013 Musks Hyperloop-Projekt.

Doch neben Transportmitteln interessiert sich Elon Musk auch für die Natur des Menschen selbst: Seit 2016 untersucht Musks Firma Neuralink Möglichkeiten, Computerchips in menschliche Gehirne einzupflanzen. Gehirnchips, die unsere Fähigkeiten erweitern – für die einen Horrorvorstellung, für die anderen nur Beginn transhumanistischer Sehnsucht. Den Prototypen eines Gehirnchips stellte Musk im Juli 2019 vor, und in einem Livestream präsentierte er am Samstag einige Fortschritte bezüglich der Implantation des Chips selbst – 1.024 Elektroden werden von einem Roboter implantiert, angeblich sanfter als bei früheren Methoden (Bericht bei golem.de).

Soll es am Anfang noch um Unterstützung für körperlich beeinträchtigte Menschen gehen, ist Musks Fernziel, die kognitiven Fähigkeiten von Menschen so zu steigern, dass wir mit Künstlicher Intelligenz (KI) mithalten können. Musk hat schon früher betont, dass er KI als zwar nützlich, aber auch als potenzielle Bedrohung ansieht; er unterstützt deshalb die Non-Profit-Organisation OpenAI, die im März mit GPT-3 die bislang am erfolgreichsten funktionierende KI zur Erzeugung längerer englischsprachiger Texte vorgestellt hat.

Die Philosophin Susan Schneider warnte 2019 nach Musks Ankündigung vor den Gefahren, die Musks Pläne für den menschlichen Geist bedeuten würden. In der Financial Times und in der New York Times warnte Schneider vor einem „Selbstmord des menschlichen Geistes“ (näher ausgeführt hat Schneider das etwas später in ihrem Buch „Artificial You: AI and the Future of Your Mind“). Erstaunlicherweise wurde in den Medien aber kaum über Musks Ausgangsthese gesprochen, die ja besagt, dass wir von KI bedroht werden und gleichsam aufrüsten müssen, um dieser Bedrohung Herr zu werden. Dabei ist gerade das Verhältnis von Mensch und KI eine Frage, die zu klären wäre, bevor wir ihretwegen wahlweise zu Cyborgs werden oder jegliche transhumanistische Idee sofort abtun.

Ist also KI für uns Technik wie jede andere, die wir als mündige Nutzer*innen verwenden, um ein konkretes Problem zu lösen?

Oder ist KI etwas, der wir uns einfach nicht werden entziehen können, von deren Leistungen wir abhängig werden (zumindest, wenn wir gesellschaftlich nicht ‚abgehängt‘ werden wollen), und die uns deswegen auch fremdbestimmen wird?

Die Antwort hängt davon ab, welche Einstellung wir modernen Technologien gegenüber einnehmen. Stehen wir ihnen optimistisch gegenüber, oder nehmen wir sie als Bedrohung wahr?

Unbehagliche Umweltkomplexität

Dass wir uns als Menschen von Technik bedroht fühlen, ist nichts Ungewöhnliches. Das betrifft uns sowohl als Gesellschaft (etwa hinsichtlich Umweltfragen und der Gefahr des Arbeitsplatzverlustes) als auch als Individuen. Insbesondere Technik, deren innerer Aufbau und deren Funktionsweise nicht auf den ersten Blick ersichtlich ist, kann zu Unbehagen führen. Das betrifft erstens ihren Einsatz, wenn wir direkt mit ihr zu tun haben, und zweitens Nebenfolgen, von denen wir als Dritte betroffen sein könnten. Denken wir etwa an das Fliegen:

  1. Viele Menschen haben Flugangst. Die Gründe dafür können vielfältig sein, aber eine der Ursachen können wir als ungläubiges Staunen vor einer als unbegreiflich empfundenen Technik beschreiben: Man ist gleichermaßen fasziniert von der Technik wie man besorgt ist, ob sie auch wirklich wie versprochen funktioniert. Wie kann es sein, dass ein Flugzeug bei Triebwerksausfall nicht einfach vom Himmel fällt? Erst wenn man Funktionsweise und Kontext der am Fliegen beteiligten Techniken und physikalischen Zusammenhänge kennt, kann man Risiken rational abschätzen und begründen.
  2. Neben dem Mitfliegen als Passagier*in sind wir vom Fliegen betroffen, weil es in unserer Umwelt stattfindet und diese Umwelt teils massiv verändert. Darauf reagieren Menschen: Denken wir etwa an Flugscham, an Proteste bei Flughafen-Ausbauten oder an Lärmbeschwerden von Anwohner*innen in Flughafennähe. Nicht das Fliegen selbst wird hier als Bedrohung gesehen, sondern die Folgen und die Voraussetzungen des Fliegens werden als Bedrohung Umwelt und der eigenen Gesundheit wahrgenommen.

Ganz ähnlich ist unsere Beziehung zu Technik insgesamt. Wir sehen uns Technik gegenüber: Wir sitzen als klar abgegrenzte Akteur*innen im Flugzeug, vor dem Computer, wir halten die Bohrmaschine in der Hand, und so weiter. Systemtheoretisch ist das eine Leistungsbeziehung zwischen System und Umwelt. Technik ist Umwelt gesellschaftlicher Systeme, wie Wirtschaft, Politik und Wissenschaft, aber auch einzelner Nutzer*innen. Nach Niklas Luhmann ist die Leistung von Technik, Komplexität zu verringern. Technik wird von ihren Entwickler*innen so eingerichtet, dass sie diese Leistung in den als am wahrscheinlichsten angenommenen Situationen erbringen kann. Um Technik zu nutzen, müssen wir nur gewisse Grundkenntnisse erwerben und können ansonsten darauf vertrauen, dass die Technik unsere Erwartungen erfüllt (wir müssen freilich auch mit Enttäuschung dieses Vertrauens umgehen).

Die systemtheoretische Perspektive auf Nutzer*in und Technik passt gut auf Verhältnisse, in denen man als Beobachter*in unterschiedliche Systeme und ihre Umwelten klar voneinander abgrenzen kann. Schwierig wird es jedoch, wo diese klare Trennung schwer fällt. Künstlicher Intelligenz etwa stehen wir nicht als gewöhnliche Nutzer*in gegenüber wie einer Bohrmaschine oder einer Textverarbeitung. Womöglich wissen wir gar nicht, dass KI hinter einer erbrachten Leistung steckt.

Im Sommer 2019 füllte die „FaceApp“ kurzzeitig das journalistische Sommerloch. Damit können Sie das Foto eines Gesichts mit KI-Hilfe und Bildverarbeitung verändern, zum Beispiel aus einem jungen Mann einen weise aussehenden älteren Herrn zu machen. Oder aus einer jungen Frau eine nette, gütige „Oma“. Andere, technisch ähnliche Anwendungen, erlauben die Generierung fiktionaler Gesichter, die ebenfalls absolut lebensecht aussehen. Das erleichtert Identitätsbetrug.

Ein noch fiktives bedrohliches Szenario könnte die behördlich angeordnete Einschränkung Ihrer Bewegungsfreiheit sein, weil Sie laut KI-Prognose bald eine Straftat begehen werden, von der Sie selbst noch gar nichts wissen. Womöglich könnten Sie Widerspruch gegen die Entscheidung einlegen, hören dann aber nur die Antwort „Es tut mir leid, aber unsere Risiko-KI hat das so entschieden.“ Dann fühlen Sie sich so hilflos wie einst Josef K. in Franz Kafkas Roman „Der Prozess“ – einem System ausgeliefert, dessen Entscheidungen man nicht versteht und gegen die man nichts, aber auch gar nichts, tun kann.

So eine KI wäre zwar immer noch Umwelt der anderen Systeme, aber ihre Leistungen kämen eher einer Naturgewalt gleich statt einer kontrollierbaren Technik. Die KI würde eher Umweltkomplexität erzeugen statt sie zu verringern. Wer mag es einem Elon Musk da verdenken, dass er Menschen mittels Chip im Kopf die Möglichkeit geben will, einer KI quasi auf Augenhöhe zu begegnen?

Zum jetzigen Zeitpunkt ist das Hauptproblem an Musks Ansatz nicht die technische Machbarkeit. Es ist auch nicht die – philosophisch sicher spannende – Frage, ob ein Chip im Gehirn den menschlichen Geist erweitert, so wie es etwa Andy Clark und David J. Chalmers 2013 in ihrer Extended Mind Theory schon für einfache Techniken wie ein Notizbuch behaupteten (und ähnlich schon früher die Medientheorie Marshall McLuhans), oder ob Susan Schneider mit ihrer Selbstmord-These Recht hat. Wenn wir wirklich von KI bedroht sein sollten, ist das Hauptproblem derzeit, ob Musks Ansatz geeignet ist, das Problem zu lösen, oder ob es nicht auch einfacher geht.

Statt Gehirnchips: Verstehen und Intervention

Eine Alternative finden wir in der Forderung, in Bezug auf Digitalisierung eine „Code Literacy“ auszubilden (so Douglas Rushkoff in seinem Buch „Program or be Programmed“), also verstehen zu lernen, wie Computer und Algorithmen mit unseren Daten umgehen, damit wir mündige Nutzer*innen sein können. In Bezug auf KI denke ich dabei an drei Aspekte:

  • die Fähigkeit, zu erkennen, dass wir in einer bestimmten Situation von KI betroffen sind;
  • das Wissen darüber, was eine KI grundsätzlich tun kann oder nicht – wo also ihre realistischen Fähigkeiten und Grenzen liegen;
  • das Wissen darüber, was Menschen, die eine KI einsetzen, mit ihrer Hilfe tun können oder nicht.

Es geht, kurz gesagt, darum, die System-Umwelt-Verhältnisse der beteiligten menschlichen, gesellschaftlichen und technischen Systeme zu klären und die erwarteten und erbrachten Leistungen einzuordnen. Dann ist es möglich, Interventionsmöglichkeiten zu identifizieren und, anders als Josef K. in Kafkas Roman, KI nicht als mystische Macht wahrzunehmen, die irgendwo im Hintergrund lauert, sondern als Technik wie jede andere auch. Die Ausbildung dieser auf KI erweiterten Code Literacy führt zu einer Demystifizierung, die schon Max Weber in Bezug auf Wahrheitsansprüche gefordert hatte, und an die zu erinnern mir mittlerweile auch für das Alltagsleben geboten erscheint.

Aktuelle KI-Systeme sind lediglich mathematische Modelle, deren Einzelteile fast lächerlich einfach erscheinen können (z.B. das einzelne künstliche Neuron eines neuronalen Netzes). Nur dank der großen Zahl der Einzelteile (z.B. aller Neuronen des Netzes) und mehrfach wiederholter Berechnungsdurchgänge entstehen Ergebnisse, die mitunter selbst die Entwickler*innen überraschen. Aber es ist nach wie vor bloße Mathematik, und eine KI kann nicht, wie in der Science Fiction, auf geradezu magische Art über sich hinauswachsen. Entwickler*innen wählen Trainingsdaten aus, legen Aktivierungsfunktionen und Gewichtungen fest, markieren Ergebnisse als gewünscht, um eine Abbruchbedingung für die Berechnung zu haben, und entwickeln Algorithmen, die selbst bei KI-Systemen auf einer basalen Ebene existieren. Daher tut auch eine KI nur das, wofür sie programmiert wurde. Sie ‚trifft‘ keine eigenen Entscheidungen.

Die Verantwortung für Fehlentscheidungen tragen Menschen, und an die müssen wir uns bei Fehlentscheidungen wenden. Zu verstehen, wie KI funktioniert und zu was sie in der Lage ist (und wozu nicht), hilft dabei. Neben bereits bestehenden Arbeiten zur menschenfreundlichen Darstellung von KI-Entscheidungsprozessen wäre es wünschenswert, wenn die Modelle und Datenbasen einer KI einer Open-Source-Pflicht unterliegen würden. Darüber hinaus bedarf es gesellschaftlicher Organisationsformen als Entlastungsfunktion – zum Beispiel in Form spezieller Abteilungen in Unternehmen und Behörden, die unsere Widersprüche gegen KI-Entscheidungen bearbeiten und KI-Entscheidungen übersteuern können, sowie neutraler Schiedsstellen, an die wir uns wenden können, wenn eine andere Einigung nicht möglich ist. Ein zu erwartender Wegfall von Arbeitsplätzen durch KI muss gesellschaftlich bearbeitet werden – von Fortbildungsprogrammen bis hin zu Grundeinkommensmodellen (denn trotz Fortbildung wird nicht jede*r eine andere Tätigkeit finden), ebenso wie mögliche ökologische Folgen des Energieverbrauchs.

Dies wären Ansatzpunkte für eine menschliche Umgangsweise mit Herausforderungen von KI-Einsatz – zwar kritisch und durchaus der Gefahren bewusst, aber unaufgeregt und grundsätzlich technik-optimistisch. KI hingegen als quasi naturgegebene Macht anzusehen, der wir uns nur durch technische Aufrüstung im Gehirn erwehren können, kommt der Bekämpfung von Feuer mit Öl gleich. Neuralinks Produkt wäre für diesen Einsatzzweck eine Technik, die mehr Komplexität schafft als sie verringert, und zumindest in dieser Hinsicht widersinnig. Nicht nur aus Machbarkeitsgründen wäre es sinnvoller, den Fokus auf die viel naheliegenderen medizinischen Möglichkeiten solcher Chips zu legen, die Musk aber nur als Einstieg sieht.

Den Artikel habe ich zeitgleich in meinem Blog bei ueberstrom.net gepostet.

Dieser Beitrag gibt die Meinung des Autors wieder, nicht notwendigerweise die der Redaktion des Freitag.
Geschrieben von

Mario Donick

Autor und Teilzeit-Kommunikationsforscher

Avatar

Was ist Ihre Meinung?
Diskutieren Sie mit.

Kommentare einblenden