Automatisiertes Denken: Ich bin kein Roboter

ChatGPT Faszination aber auch Angst vor Veränderung halten sich bei großen technologischen Fortschritten stets die Waage, so auch im Falle der Entwicklung des maschinellen Lernens.

Bei diesem Beitrag handelt es sich um ein Blog aus der Freitag-Community.
Ihre Freitag-Redaktion

Die künstliche Intelligenz kann eine erschreckende Klugheit besitzen, so dass einige Universitäten schon panisch reagieren und erklären, nur noch mündliche Prüfungen zulassen wollen. Mit Chat GPT können hervorragende Texte entstehen, die von menschengemachten kaum noch zu unterscheiden sind. Die Texte wirken, als seien Argumente von der KI stringent entwickelt worden. Allerdings ist das System fehleranfällig und vermutlich wird das auch so bleiben. Aus vielen Gründen kann das System „falsch abbiegen“, Unsinn entstehen und es braucht immer den Menschen, der hier eine Einordnung treffen kann.

Das Problem des Chatbots ist also nicht, dass eine kluge Technik die menschliche Arbeit oder überhaupt den Menschen überflüssig macht. Das ist allein deshalb schon nicht der Fall, weil der Mensch derjenige ist, der die Technik braucht und ihre Texte liest und davon profitiert. Es wird dabei bleiben, dass die KI nichts von Bedeutung produziert, bis der Mensch ihren Werken einen Sinn gibt. Oder er die Texte so verändert und korrigiert, bis sie einen Sinn erhalten. Der Rezipient ist das Zentrum, um den sich die Technik bewegt.

Wir brauchen keine ChatGPT-Bots, aber ChatGPT braucht uns

Nur muss der Mensch ein guter Rezipient sein. Er muss verstehen, was der KI-basierte Chatbot schreibt. Das hört sich trivial an, aber kann er das überhaupt noch, wenn er nicht mehr selber schreibt? Schließlich entwickelt sich ein tieferes Verständnis für die Beschaffenheit eines Textes vor allen Dingen, indem man Routine entwickelt, gute Texte selbst zu verfassen. Ohne Textverständnis, ohne das Wissen um den Aufbau eines Textes ist es nicht möglich, die Leistungen des Chatbots zu bewerten und zu optimieren. Was also, wenn der Mensch durch die immer selbstverständlichere Nutzung genau die Fähigkeiten verliert, die er braucht, um die Fehler der KI auszubügeln?

Das Problem des sogenannten Automation Bias, der Neigung des Menschen also, Vorschläge von automatisierten Entscheidungssystemen zu bevorzugen, ist bekannt und gut beschrieben. Jede Automatisierung bringt dieses Problem mit sich. Es gibt noch ein weiteres Problem automatisierter Systeme, das mit der Maschine-Mensch-Verbindung zu tun hat, die bei zunehmender Automatisierung fragiler wird. Nicholas Carr beschreibt in seinem Buch „Abgehängt“, wie die Einführung des Autopiloten in Flugzeugen zu eigentümlichen Fehlern geführt hatte. Die Piloten verloren durch die fehlende Routine die Fähigkeit, bei einem Ausfall oder Fehler des Autopiloten souverän einzugreifen. Gerade in solchen Situationen war aber diese Fähigkeit, die nur beim Fliegen ohne Nutzung des Autopiloten erworben werden kann, besonders wichtig. Inzwischen weiß man um diesen Effekt und berücksichtigt ihn bei der Ausbildung.

Automatisiertes Denken

Bei selbstfahrenden Autos wird das Problem ähnlich aussehen. Je weniger routiniert Menschen darin sind, eine Tätigkeit auszuüben, je weitreichender sich also ihre Rolle ändert und sie nur noch als Assistent und Beobachter fungieren, der im Notfall einschreiten soll, desto schwieriger wird der Übergang in die aktive Rolle beim Versagen der Technik. Deshalb sind viele der Meinung, ein System, das komplett automatisiert ist und keine Intervention mehr erlaubt und erfordert, sicherer ist als ein System, das dem Menschen eine Assistentenrolle zugedenkt.

Und auch die Fähigkeit, gute wissenschaftliche oder journalistische Texte zu schreiben, wird nach wie vor gebraucht werden, um mit der neuen Technik zurecht zu kommen. Die Besonderheit ist auch hier: je ausgereifter sich die Technik entwickelt, je eher also syntaktische Qualität und Kohärenz an menschliche Fähigkeiten herankommen, desto mehr Kompetenz muss auch der Mensch entwickeln, um eventuelle Fehler zu entdecken und – mit Hilfe der Technik oder ohne sie - auszumerzen. So muss er zum Beispiel wissen, was ein Argument ist und wie man Argumente sinnvoll miteinander verknüpft, um einschätzen zu können, ob die Maschine genau das tut.

Auch im Bereich der Geisteswissenschaften wird dies eine wichtige Kompetenz bleiben. Wer erinnert sich noch an die Sokal Affäre? Es war ein Skandal in den Sozialwissenschaften, der durch die Veröffentlichung eines Artikels des Physikers Alan Sokal in der Fachzeitschrift „Social Text“ ausgelöst wurde. Sokal hatte bewusst postmodernes Geschwurbel publiziert, dessen intellektuelle Unredlichkeit aber keinem der Redakteure aufgefallen war. Um zu verhindern, dass eine wildgewordene, der Postmoderne entsprungenen Maschine pseudo-intellektuellen Unfug schreibt, den niemand sich mehr traut zu hinterfragen und einzuordnen, müssen die Nutzer der Technik neben Analysefähigkeiten eine solide Medienkompetenz erwerben, die verhindert, den Chatbot zu mystifizieren.

Chat GPT ist damit keine Technik, die den Menschen aus der Pflicht nimmt. Sondern eine, die genau jenem Personenkreis die Arbeit erleichtert, der sie auch ohne Chat GPT erledigen könnten. Die er sich daher immer noch aneignen sollte. Genau das ist möglicherweise ein Problem, das auf die Gesellschaft zukommen könnte. Denn es besteht die Gefahr, dass der Mensch diese Fähigkeit, die jetzt mit so einer Leichtigkeit von einer Maschine übernommen werden kann, immer weniger schätzt. Auch dieses Phänomen kennen wir aus anderen Bereichen.

Anbeten der Technik

So ist die Relevanz, die der Rechtschreibung zugewiesen wird, in den letzten Jahrzehnten nicht zuletzt auf dem Hintergrund der Möglichkeiten automatisierter Rechteschreibung gesunken. Baden-Württembergs Ministerpräsident Winfried Kretschmann fand 2020, dass Rechtschreibung im Zuge der Entwicklung der Autokorrektur auch an Schulen an Bedeutung verliere und das Erlernen, von einem „Grundgerüst“ abgesehen, keine Priorität haben müsse. Schreiben sei doch Kulturgut, hieß es daraufhin aus der konservativen Richtung. Die wesentliche Frage wurde aber meist nicht gestellt, nämlich, ob man sich überhaupt in dem Ausmaß auf die Autokorrektur verlassen sollte. Wer viel schreibt, weiß: Die Autokorrektur ist noch lange nicht ausgereift, wird es vielleicht nie sein. Auch wenn sie immer besser wird: Wer keinerlei Rechtschreibkompetenz besitzt, ist dem Programm ausgeliefert.

Auch in Zeiten von ChatGPT werden menschliche Argumentationstechniken, Textaufbau, verbale Fähigkeiten immer noch eine große Rolle spielen. Auch die Fähigkeiten, zu recherchieren und Informationen selbstbestimmt zu suchen. Die Gefahr ist also nicht nur, dass der Mensch überflüssig wird, sondern auch, dass er die Technik mystifiziert und überschätzt. Dass er in ihr also weniger ein Instrument sieht, sondern zunehmend eine Kraft, der er sich unterordnet. Und dass der Mensch, im Glauben, seine Kompetenzen würden nun unwichtiger werden, die Entwicklung dieser Fähigkeiten vernachlässigt. Dann läuft er Gefahr, die Kontrolle aus der Hand zu geben.

Dieser Beitrag gibt die Meinung des Autors wieder, nicht notwendigerweise die der Redaktion des Freitag.
Geschrieben von

Manuela Branz

Autorin, Feminismus, Netzpolitik.

Avatar

Was ist Ihre Meinung?
Diskutieren Sie mit.

Kommentare einblenden