Seit Kurzem begeistert die Qualität der Antworten, die eine neue Generation von textbasierten Dialogsystemen (Chatbots genannt) mit Künstlicher Intelligenz auf Fragen präsentiert. Vor allem das Programm ChatGPT der Firma OpenAI ist im Gespräch: Die Nutzerzahlen sind schon nach zwei Monaten bei 100 Millionen und sie steigen rasant weiter. Langsam wird aber auch deutlich, welche Probleme die Software mit sich bringt. Da sind die Umstände, unter denen – kenianische – Billiglohnkräfte die Algorithmen trainieren. Auch der Energieverbrauch bei Großanwendungen wie Suchmaschinen wird diskutiert. Und es fehlen transparente Verfahren, um die Ergebnisse zu beurteilen.
Notwendig ist aber auch eine kritische Betrachtung der künstlich generierten Inhalt
ten Inhalte: Bislang wird wenig diskutiert, inwiefern die Chatbots bestimmte Quellen bevorzugen, andere ignorieren. Sind die vielen Inhalte, mit denen Programmierer die Maschine trainieren, divers genug? Oder werden überwiegend „westliche“, „weiße“ Inhalte eingespeist? Erkennbar ist zum Beispiel ein US-amerikanisch getönter Sprachstil, und Filter gegen Rassismus können umgangen werden. Dazu kommen viele falsche und „ausgedachte“ Antworten.Statt utopischen oder dystopischen Reflexen nachzugeben, ist eine Analyse nötig: Texterstellungs-Programme sind zweigesichtig. Einerseits kann ChatGPT prima Rezepte, Wanderrouten, Werbetexte und Glossare schreiben. Es kann inspirierende Geschichten „erzählen“ und Menschen unterhalten. Andererseits machen solche Schreib-Maschinen gravierende Fehler, etwa erfinden sie Wikipedia-Seiten, ignorieren bei Wanderrouten Gletscherspalten oder präsentieren gefährliche Stereotype. Zur Einschätzung kommt es nicht auf den Inhalt, sondern auf die Anwendungen an: vor allem den sozialen Kontext, die Risiken, die Kompetenz der Nutzer und den Automatisierungsgrad. Damit haben sich die Datenethikkommission, eine Enquetekommission und nun auch die EU befasst, deren „AI Act“ kurz vor der Verabschiedung steht. Die „kritische Informatik“ der 1980er ist heute keine Außenseiterposition mehr.ChatGPT schöpft keinen eigenen SinnEine der größten Gefahren ist, dass Maschinen mit Menschen verwechselt werden und gleichzeitig Projektion für Übermenschliches sind. Doch menschliche Fähigkeiten hat der Algorithmus nicht. Da wir wissen, wie er im Wesentlichen arbeitet – er verkettet statistisch häufige Wortfolgen –, schöpft er ähnlich einem Papageien, keinen eigenen Sinn. Jeder, der mit solchen Chatbots in Berührung kommt, muss das wissen: es wird auch „erfunden“, was plausibel wirkt, und es erscheint nur kreativ.Was macht ChatGPT mit uns? Einerseits nimmt das Programm uns viel profane Produktion von Gebrauchstexten ab. Es entwickelt neue Unterhaltungsformate – auf Twitch wird jetzt schon eine KI-generierte Serie gezeigt. Auch das „Gespräch“ mit Chatbots könnte ein Genre werden, wie es Text Adventures einmal waren. Plots nach Rezepten von Autorenratgebern sind ohne weiteres möglich. Damit droht der Kollaps eines Teils des Self-Publishing-Marktes durch eine Eulenspiegelei.Dennoch ist für Dystopien oder Utopien wenig Anlass. Chatbots verfügen weder über Selbst- noch Umweltkonzepte noch Intentionalität. Sie können auch nicht wirklich in Beziehung treten – sie sind nicht resonanzfähig. Sie benutzen Sprache quasi kontrafaktisch: als gefrorenes Zeichensystem. Ob das als Gegenüber hilft, etwa gegen Einsamkeit – man spricht in Kalifornien bereits von „synthetic humanity“–, mag man bezweifeln, aber Meeting-Assistenten können hohe Akzeptanz finden.In virtuellen Kontexten, vor allem mit synthetischer Sprache (Vall-E braucht nur drei Sekunden Mitschnitt, um verwechselbares Sprechen zu erzeugen), erleben Menschen Maschinen wirklich als „Assistenten“, andererseits bereiten Identitäts-Fakes neue Probleme. Wahrscheinlich lernen wir vor allem am Unterschied über uns selbst, wie sehr Bewusstsein uns ausmacht – und wie erbärmlich wir sein können, wenn etwa ChatGPT uns den „Best-of“-Text einer Weihnachtskarte präsentiert, der nett und belanglos ist und dabei empathisch klingt.