Auf den Unternehmer Elon Musk scheint der etwas abgegriffene Begriffs des „Machers“ noch zu passen: Elektroautos nicht nur bauen, sondern als attraktiv vermarkten? Das tut Musk mit seiner Firma Tesla, in die er seit 2004 investiert. Dafür in Windeseile eine Fabrik in Brandenburg hochziehen? Scheinbar trotz Protesten kein Problem. Eine private Alternative zur staatlichen US-Raumfahrt bieten? Musk und SpaceX tun das seit 2002; vor ein paar Monaten erstmals auch mit zwei Astronauten an Bord. Menschen und Fracht mit fast Schallgeschwindigkeit durch Tunnelröhren transportieren? Daran arbeitet seit 2013 Musks Hyperloop-Projekt.
Doch neben Transportmitteln interessiert sich Elon Musk auch für die Natur des Menschen selbst: Seit 2016 untersucht Musks Firma Neuralink Möglichkeiten, Computerchips in menschliche Gehirne einzupflanzen. Gehirnchips, die unsere Fähigkeiten erweitern – für die einen Horrorvorstellung, für die anderen nur Beginn transhumanistischer Sehnsucht. Den Prototypen eines Gehirnchips stellte Musk im Juli 2019 vor, und in einem Livestream präsentierte er am Samstag einige Fortschritte bezüglich der Implantation des Chips selbst – 1.024 Elektroden werden von einem Roboter implantiert, angeblich sanfter als bei früheren Methoden (Bericht bei golem.de).
Soll es am Anfang noch um Unterstützung für körperlich beeinträchtigte Menschen gehen, ist Musks Fernziel, die kognitiven Fähigkeiten von Menschen so zu steigern, dass wir mit Künstlicher Intelligenz (KI) mithalten können. Musk hat schon früher betont, dass er KI als zwar nützlich, aber auch als potenzielle Bedrohung ansieht; er unterstützt deshalb die Non-Profit-Organisation OpenAI, die im März mit GPT-3 die bislang am erfolgreichsten funktionierende KI zur Erzeugung längerer englischsprachiger Texte vorgestellt hat.
Die Philosophin Susan Schneider warnte 2019 nach Musks Ankündigung vor den Gefahren, die Musks Pläne für den menschlichen Geist bedeuten würden. In der Financial Times und in der New York Times warnte Schneider vor einem „Selbstmord des menschlichen Geistes“ (näher ausgeführt hat Schneider das etwas später in ihrem Buch „Artificial You: AI and the Future of Your Mind“). Erstaunlicherweise wurde in den Medien aber kaum über Musks Ausgangsthese gesprochen, die ja besagt, dass wir von KI bedroht werden und gleichsam aufrüsten müssen, um dieser Bedrohung Herr zu werden. Dabei ist gerade das Verhältnis von Mensch und KI eine Frage, die zu klären wäre, bevor wir ihretwegen wahlweise zu Cyborgs werden oder jegliche transhumanistische Idee sofort abtun.
Ist also KI für uns Technik wie jede andere, die wir als mündige Nutzer*innen verwenden, um ein konkretes Problem zu lösen?
Oder ist KI etwas, der wir uns einfach nicht werden entziehen können, von deren Leistungen wir abhängig werden (zumindest, wenn wir gesellschaftlich nicht ‚abgehängt‘ werden wollen), und die uns deswegen auch fremdbestimmen wird?
Die Antwort hängt davon ab, welche Einstellung wir modernen Technologien gegenüber einnehmen. Stehen wir ihnen optimistisch gegenüber, oder nehmen wir sie als Bedrohung wahr?
Unbehagliche Umweltkomplexität
Dass wir uns als Menschen von Technik bedroht fühlen, ist nichts Ungewöhnliches. Das betrifft uns sowohl als Gesellschaft (etwa hinsichtlich Umweltfragen und der Gefahr des Arbeitsplatzverlustes) als auch als Individuen. Insbesondere Technik, deren innerer Aufbau und deren Funktionsweise nicht auf den ersten Blick ersichtlich ist, kann zu Unbehagen führen. Das betrifft erstens ihren Einsatz, wenn wir direkt mit ihr zu tun haben, und zweitens Nebenfolgen, von denen wir als Dritte betroffen sein könnten. Denken wir etwa an das Fliegen:
- Viele Menschen haben Flugangst. Die Gründe dafür können vielfältig sein, aber eine der Ursachen können wir als ungläubiges Staunen vor einer als unbegreiflich empfundenen Technik beschreiben: Man ist gleichermaßen fasziniert von der Technik wie man besorgt ist, ob sie auch wirklich wie versprochen funktioniert. Wie kann es sein, dass ein Flugzeug bei Triebwerksausfall nicht einfach vom Himmel fällt? Erst wenn man Funktionsweise und Kontext der am Fliegen beteiligten Techniken und physikalischen Zusammenhänge kennt, kann man Risiken rational abschätzen und begründen.
- Neben dem Mitfliegen als Passagier*in sind wir vom Fliegen betroffen, weil es in unserer Umwelt stattfindet und diese Umwelt teils massiv verändert. Darauf reagieren Menschen: Denken wir etwa an Flugscham, an Proteste bei Flughafen-Ausbauten oder an Lärmbeschwerden von Anwohner*innen in Flughafennähe. Nicht das Fliegen selbst wird hier als Bedrohung gesehen, sondern die Folgen und die Voraussetzungen des Fliegens werden als Bedrohung Umwelt und der eigenen Gesundheit wahrgenommen.
Ganz ähnlich ist unsere Beziehung zu Technik insgesamt. Wir sehen uns Technik gegenüber: Wir sitzen als klar abgegrenzte Akteur*innen im Flugzeug, vor dem Computer, wir halten die Bohrmaschine in der Hand, und so weiter. Systemtheoretisch ist das eine Leistungsbeziehung zwischen System und Umwelt. Technik ist Umwelt gesellschaftlicher Systeme, wie Wirtschaft, Politik und Wissenschaft, aber auch einzelner Nutzer*innen. Nach Niklas Luhmann ist die Leistung von Technik, Komplexität zu verringern. Technik wird von ihren Entwickler*innen so eingerichtet, dass sie diese Leistung in den als am wahrscheinlichsten angenommenen Situationen erbringen kann. Um Technik zu nutzen, müssen wir nur gewisse Grundkenntnisse erwerben und können ansonsten darauf vertrauen, dass die Technik unsere Erwartungen erfüllt (wir müssen freilich auch mit Enttäuschung dieses Vertrauens umgehen).
Die systemtheoretische Perspektive auf Nutzer*in und Technik passt gut auf Verhältnisse, in denen man als Beobachter*in unterschiedliche Systeme und ihre Umwelten klar voneinander abgrenzen kann. Schwierig wird es jedoch, wo diese klare Trennung schwer fällt. Künstlicher Intelligenz etwa stehen wir nicht als gewöhnliche Nutzer*in gegenüber wie einer Bohrmaschine oder einer Textverarbeitung. Womöglich wissen wir gar nicht, dass KI hinter einer erbrachten Leistung steckt.
Im Sommer 2019 füllte die „FaceApp“ kurzzeitig das journalistische Sommerloch. Damit können Sie das Foto eines Gesichts mit KI-Hilfe und Bildverarbeitung verändern, zum Beispiel aus einem jungen Mann einen weise aussehenden älteren Herrn zu machen. Oder aus einer jungen Frau eine nette, gütige „Oma“. Andere, technisch ähnliche Anwendungen, erlauben die Generierung fiktionaler Gesichter, die ebenfalls absolut lebensecht aussehen. Das erleichtert Identitätsbetrug.
Ein noch fiktives bedrohliches Szenario könnte die behördlich angeordnete Einschränkung Ihrer Bewegungsfreiheit sein, weil Sie laut KI-Prognose bald eine Straftat begehen werden, von der Sie selbst noch gar nichts wissen. Womöglich könnten Sie Widerspruch gegen die Entscheidung einlegen, hören dann aber nur die Antwort „Es tut mir leid, aber unsere Risiko-KI hat das so entschieden.“ Dann fühlen Sie sich so hilflos wie einst Josef K. in Franz Kafkas Roman „Der Prozess“ – einem System ausgeliefert, dessen Entscheidungen man nicht versteht und gegen die man nichts, aber auch gar nichts, tun kann.
So eine KI wäre zwar immer noch Umwelt der anderen Systeme, aber ihre Leistungen kämen eher einer Naturgewalt gleich statt einer kontrollierbaren Technik. Die KI würde eher Umweltkomplexität erzeugen statt sie zu verringern. Wer mag es einem Elon Musk da verdenken, dass er Menschen mittels Chip im Kopf die Möglichkeit geben will, einer KI quasi auf Augenhöhe zu begegnen?
Zum jetzigen Zeitpunkt ist das Hauptproblem an Musks Ansatz nicht die technische Machbarkeit. Es ist auch nicht die – philosophisch sicher spannende – Frage, ob ein Chip im Gehirn den menschlichen Geist erweitert, so wie es etwa Andy Clark und David J. Chalmers 2013 in ihrer Extended Mind Theory schon für einfache Techniken wie ein Notizbuch behaupteten (und ähnlich schon früher die Medientheorie Marshall McLuhans), oder ob Susan Schneider mit ihrer Selbstmord-These Recht hat. Wenn wir wirklich von KI bedroht sein sollten, ist das Hauptproblem derzeit, ob Musks Ansatz geeignet ist, das Problem zu lösen, oder ob es nicht auch einfacher geht.
Statt Gehirnchips: Verstehen und Intervention
Eine Alternative finden wir in der Forderung, in Bezug auf Digitalisierung eine „Code Literacy“ auszubilden (so Douglas Rushkoff in seinem Buch „Program or be Programmed“), also verstehen zu lernen, wie Computer und Algorithmen mit unseren Daten umgehen, damit wir mündige Nutzer*innen sein können. In Bezug auf KI denke ich dabei an drei Aspekte:
- die Fähigkeit, zu erkennen, dass wir in einer bestimmten Situation von KI betroffen sind;
- das Wissen darüber, was eine KI grundsätzlich tun kann oder nicht – wo also ihre realistischen Fähigkeiten und Grenzen liegen;
- das Wissen darüber, was Menschen, die eine KI einsetzen, mit ihrer Hilfe tun können oder nicht.
Es geht, kurz gesagt, darum, die System-Umwelt-Verhältnisse der beteiligten menschlichen, gesellschaftlichen und technischen Systeme zu klären und die erwarteten und erbrachten Leistungen einzuordnen. Dann ist es möglich, Interventionsmöglichkeiten zu identifizieren und, anders als Josef K. in Kafkas Roman, KI nicht als mystische Macht wahrzunehmen, die irgendwo im Hintergrund lauert, sondern als Technik wie jede andere auch. Die Ausbildung dieser auf KI erweiterten Code Literacy führt zu einer Demystifizierung, die schon Max Weber in Bezug auf Wahrheitsansprüche gefordert hatte, und an die zu erinnern mir mittlerweile auch für das Alltagsleben geboten erscheint.
Aktuelle KI-Systeme sind lediglich mathematische Modelle, deren Einzelteile fast lächerlich einfach erscheinen können (z.B. das einzelne künstliche Neuron eines neuronalen Netzes). Nur dank der großen Zahl der Einzelteile (z.B. aller Neuronen des Netzes) und mehrfach wiederholter Berechnungsdurchgänge entstehen Ergebnisse, die mitunter selbst die Entwickler*innen überraschen. Aber es ist nach wie vor bloße Mathematik, und eine KI kann nicht, wie in der Science Fiction, auf geradezu magische Art über sich hinauswachsen. Entwickler*innen wählen Trainingsdaten aus, legen Aktivierungsfunktionen und Gewichtungen fest, markieren Ergebnisse als gewünscht, um eine Abbruchbedingung für die Berechnung zu haben, und entwickeln Algorithmen, die selbst bei KI-Systemen auf einer basalen Ebene existieren. Daher tut auch eine KI nur das, wofür sie programmiert wurde. Sie ‚trifft‘ keine eigenen Entscheidungen.
Die Verantwortung für Fehlentscheidungen tragen Menschen, und an die müssen wir uns bei Fehlentscheidungen wenden. Zu verstehen, wie KI funktioniert und zu was sie in der Lage ist (und wozu nicht), hilft dabei. Neben bereits bestehenden Arbeiten zur menschenfreundlichen Darstellung von KI-Entscheidungsprozessen wäre es wünschenswert, wenn die Modelle und Datenbasen einer KI einer Open-Source-Pflicht unterliegen würden. Darüber hinaus bedarf es gesellschaftlicher Organisationsformen als Entlastungsfunktion – zum Beispiel in Form spezieller Abteilungen in Unternehmen und Behörden, die unsere Widersprüche gegen KI-Entscheidungen bearbeiten und KI-Entscheidungen übersteuern können, sowie neutraler Schiedsstellen, an die wir uns wenden können, wenn eine andere Einigung nicht möglich ist. Ein zu erwartender Wegfall von Arbeitsplätzen durch KI muss gesellschaftlich bearbeitet werden – von Fortbildungsprogrammen bis hin zu Grundeinkommensmodellen (denn trotz Fortbildung wird nicht jede*r eine andere Tätigkeit finden), ebenso wie mögliche ökologische Folgen des Energieverbrauchs.
Dies wären Ansatzpunkte für eine menschliche Umgangsweise mit Herausforderungen von KI-Einsatz – zwar kritisch und durchaus der Gefahren bewusst, aber unaufgeregt und grundsätzlich technik-optimistisch. KI hingegen als quasi naturgegebene Macht anzusehen, der wir uns nur durch technische Aufrüstung im Gehirn erwehren können, kommt der Bekämpfung von Feuer mit Öl gleich. Neuralinks Produkt wäre für diesen Einsatzzweck eine Technik, die mehr Komplexität schafft als sie verringert, und zumindest in dieser Hinsicht widersinnig. Nicht nur aus Machbarkeitsgründen wäre es sinnvoller, den Fokus auf die viel naheliegenderen medizinischen Möglichkeiten solcher Chips zu legen, die Musk aber nur als Einstieg sieht.
Den Artikel habe ich zeitgleich in meinem Blog bei ueberstrom.net gepostet.
Kommentare 4
An dieser Stelle lohnt eine Blick auf das Projekt Turing-Bus, welches genau diesen Versuch unternimmt, Wissen über KI und Code Literacy zu vermitteln und digitale Mündigkeit und Teilhabe zu fördern: https://www.freitag.de/autoren/der-freitag/der-spion-liebt-mich
Dieser Beitrag hätte ein wenig schärfer ausfallen dürfen. Wenn man begriffen hat, daß nicht die Technik die Gefahr ist, die uns droht, sondern der technikanwendende Mensch, und im Fall der implantierten Technik, mit der die reflexive Distanz zur Technik kurzgeschlossen wird, die Dummheit des Programmierers, der die Folgen des Programms nicht überblickt, wird klar, worin das Problem besteht: es liegt beim Menschen und seiner beschränkten Intelligenz. Man kann den Programmierern nicht unkontrolliert eine Macht überlassen, die sie objektiv haben, derer sie sich jedoch in der Regel nicht selbst bewußt sind. Selbstverständlich dürfen wir nicht alles Handeln untersagen, dessen sämtliche Folgewirkungen wir nicht überblicken, denn dann könnten wir überhaupt nicht mehr handeln. Aber wir müssen uns der Fehleranfälligkeit und unvermeidlichen Verkürzungen unseres Denkens bewußt sein und daher Kontroll- und Sicherheitsmaßnahmen einbauen. Die implantierte Technik schließt das aus und ist daher absolut inakzeptabel.
Zuallererst möchte ich @w.endemann zustimmen "Dieser Beitrag hätte ein wenig schärfer ausfallen dürfen."
Die drei Aspekte, die im Artikel genannt worden sind, liegen auf drei verschiedenen Ebenen und sind in ihrer Kontrollierbarkeit nur schwer miteinander zu vergleichen.
"die Fähigkeit, zu erkennen, dass wir in einer bestimmten Situation von KI betroffen sind"
Es ist sicher unstrittig, dass dies durch Bildung im weitesten Sinne erreichbar ist. Allerdings wird das Erreichen dieses Zieles durch die immer rasantere Entwicklung in Frage gestellt.
"das Wissen darüber, was Menschen, die eine KI einsetzen, mit ihrer Hilfe tun können oder nicht"
Dieses Wissen wird durch Geheimhaltung in der Wirtschaft, aber vor allem auch in der Militärtechnik immer schwerer zugänglich. Weder demokratisch verfasste noch autoritär gelenkte und schon gar nicht diktatorisch geführte Gesellschaften bieten hier Zugang zu diesem Wissen. Michael T. Klare hat das in einem kürzlich erschienen Beitrag "Robot Generals - Will They Make Better Decisions Than Humans -- Or Worse?" eindringlich beschrieben.
Damit will ich zum dritten und aus meiner Sicht am meisten unterschätzten Punkt kommen.
"das Wissen darüber, was eine KI grundsätzlich tun kann oder nicht – wo also ihre realistischen Fähigkeiten und Grenzen liegen"
Wenn der Autor schreibt: "Aktuelle KI-Systeme sind lediglich mathematische Modelle, deren Einzelteile fast lächerlich einfach erscheinen können (z.B. das einzelne künstliche Neuron eines neuronalen Netzes). Nur dank der großen Zahl der Einzelteile (z.B. aller Neuronen des Netzes) und mehrfach wiederholter Berechnungsdurchgänge entstehen Ergebnisse, die mitunter selbst die Entwickler*innen überraschen. Aber es ist nach wie vor bloße Mathematik, und eine KI kann nicht, wie in der Science Fiction, auf geradezu magische Art über sich hinauswachsen.", dann ist das ein grob mechanistisches Modell. Es geht in der KI schon lange nicht mehr nur darum, Resultate (z. B. ein verändertes Gesicht) als Ergebnis eines beliebig komplexen Rechenvorganges zu erzeugen. Wie das "Programm" AlphaGo gezeigt hat, kann KI heute schon strategische Entscheidungen "berechnen", die noch nie im Blickfeld eines Menschen aufgetaucht sind. Diesem Programm sind keine vom Menschen "ausgewählten Trainingsdaten" vorgelegt worden. Es hat sie selbst generiert und daran gelernt. Einzig das als "gewünscht markierte Ergebnis" wurde vorgegeben. Die meisten Kritiker unterschätzen die Macht der Trainingsdaten. Heutige KI-Systeme haben schon Zugriff auf beliebig große Datenmengen aus sehr viel komplexeren Umgebungen, als im Go-Spiel vorliegen. Sie können auch für reale Umwelten Daten erzeugen, um daran zu lernen. Jeder, der sich vorstellt, deren Fähigkeiten und Grenzen erkunden zu können, erliegt meiner Meinung nach seinem Wunschdenken. Wir werden uns damit abfinden müssen, dass KI in Bereiche und Dimensionen vordringt, die uns verschlossen sein werden. Daran werden auch die Chips eines Elon Musk vermutlich nicht ändern können. Wir sollten zwei Dinge voneinander unterscheiden. Eine sich verselbständigende KI, die auch über eine Form von Bewusstsein verfügen wird, entzieht sich prinzipiell unserer Kontrolle. Wir werden ihr gegenüberstehen wie die Menschenaffen uns. Worauf wir uns konzentrieren sollten, ist die Anwendung und der Missbrauch von "KI ohne Bewusstsein" durch Menschen. Es wird schwierig genug sein, die Auslöschung der Menschheit, die dadurch droht, zu verhindern.
Millionen "Verschwörungstheoretiker" haben sich eben mal geirrt: Nicht GATES sondern MUSK strebt nach der Weltherrschaft.
Für seine anthroposophische Liquidität lässt er gern auch mal seine MUSKeln gegen Arbeitnehmer und Steuereintreiber spielen. Von unserer Prominenz erhält seine Majestät dennoch einen Staatsempfang sondersgleichen. Warten wir's ab, wer letztendlich auf dem Schleim ausrutscht.