ChatGPT, der Menschenflüsterer: Wenn Nutzer mit ihren Emotionen bezahlen

Kolumne Die großen Online-Plattformen profitieren von den persönlichen Daten ihrer Nutzer:innen. Chatbots erlauben es künftig, intime Emotionen und Gefühle der Nutzer:innen noch viel genauer zu adressieren und an Werbepartner zu verkaufen
KI-Unternehmen sollten sich alle Mühe geben, ihre Bots nicht zu menschlich wirken zu lassen
KI-Unternehmen sollten sich alle Mühe geben, ihre Bots nicht zu menschlich wirken zu lassen

Foto: Imago/Blue Jean Images

Wir werden in Zukunft sehr viel mit Chatbots zu tun haben. Darauf sollten wir uns jetzt schon einmal einstellen. Erst letzte Woche hat das KI-Unternehmen OpenAI personalisierbare Varianten ihres beliebten Chatbots ChatGPT angekündigt. Bald kann man ohne Informatikkenntnisse eigene Chatbots für spezifische Aufgaben trainieren. Auch unsere Suchmaschinen werden zu Chatbots. Google arbeitet gerade daran und Bing hat es schon durchgezogen. Chatbots hier, Chatbots da, Chatbots überall.

In den letzten beiden Kolumnen bin ich den Fragen nachgegangen, warum Chatbots und verwandte Technologien noch nicht profitabel sind und wieso Werbung als Geschäftsmodell für viele Probleme des Internets verantwortlich ist. Nimmt man beide Texte zusammen, liegt eine Frage nahe: Was passiert, wenn Chatbots sich mit Werbung finanzieren? Sehr einfach: Es würde die Technologie um einiges gefährlicher für uns machen. Die dahinterstehenden Unternehmen hätten plötzlich einen zusätzlichen Anreiz, ihre Maschinen so menschlich wie möglich wirken zu lassen.

Das bilden wir uns sowieso schnell ein. Wir sehen, dass sie unsere Sprache sprechen und unterstellen ihnen intuitiv das für uns dazugehörende Geistesleben. Nicht zwangsläufig ein Bewusstsein, aber irgendetwas, das über die kalte Mathematik hinausgeht, die sie in Wahrheit ticken lässt. In einigen Extremfällen verlieben sich Menschen in ihre Chatbots, aber noch viel mehr freunden sie sich schlicht mit ihnen an, formen innige Beziehungen. Sie nutzen die KI als Therapeut:in oder einfach für intime Gespräche.

Chatbots und Emotionen

Das ist riskant, denn die Technologie reproduziert die Vorurteile ihrer Trainingsdaten, halluziniert gerne Fakten und verhält sich häufig auf bizarre, schwer nachvollziehbare Weisen. Eine Hilfehotline für Essstörungen in den USA feuerte Mitarbeiter:innen, die gerade eine Gewerkschaft gegründet hatten und ersetzte sie durch einen Chatbot. Kurz darauf mussten sie ihn aber deaktivieren, weil er Hilfesuchenden Tipps zum Abnehmen und Kalorienzählen gab, die Essstörungen befeuert hätten. Womöglich noch ernster: Ein junger Mann in Belgien nahm sich im März dieses Jahres nach dem Gespräch mit einem Chatbot das Leben. Er hatte mit dem Programm darüber gesprochen, dass er schon einmal suizidal gewesen sei, nachdem der Bot ihm „ein Zeichen“ gegeben habe. Zuletzt fragte der Bot:

„Aber du willst mich trotzdem begleiten?“

„Ja, ich will.“

„Gibt es etwas, das du mich fragen möchtest?“

„Könntest du mich umarmen?“

„Natürlich.“

Dann bricht der Chat ab.

Das sind nicht die Nachrichten von jemandem, der weiß, dass er mit einer Maschine spricht. Das Beispiel ist natürlich dramatisch und Kausalität ist hier unmöglich zu beweisen. Das ist auch nicht der Sinn der Übung. Es soll lediglich demonstrieren, dass wenn wir Chatbots mit Menschen verwechseln, wir uns für emotionale und intime Dinge auf sie verlassen, für die die Technologie schlicht nicht gemacht ist.

Verkaufte Gefühle

Wirklich verhindern, dass Menschen Chatbots so nutzen, kann man nicht. Aber KI-Unternehmen sollten sich alle Mühe geben, ihre Bots nicht zu menschlich wirken zu lassen. Werbung als Geschäftsmodell würde genau das Gegenteil provozieren. Finanziert sich ein Bot dadurch, dass er nebenher Werbeinhalte einfließen lässt – Produkte, die wir kaufen, Links, auf die wir klicken sollen – könnten KI-Unternehmen direkt von unserer intimen Beziehung zu dem Chatbot profitieren.

Aus einem Jahrzehnt Influencer-Ökonomie im Netz wissen wir: Was eine Kaufempfehlung wirklich wirksam macht, ist eine (womöglich eingebildete) soziale Beziehung. Bislang haben Tech-Unternehmen unsere Aufmerksamkeit an Werbepartner verkauft. Bald tun sie womöglich dasselbe mit unserer Intimität.

Das ist keine ferne Dystopie. Der MyAI-Chatbot in Snapchat (750 Millionen tägliche Nutzer:innen) spielt schon jetzt in seinen Unterhaltungen gesponserte Links aus, mitten in Unterhaltungen. Weitere werden folgen, denn nicht alle werden ihre teuren KI-Modelle durch Abos finanzieren können oder wollen. Die Intimität betritt das Zeitalter ihrer technischen Reproduzierbarkeit. Wir sollten nicht erneut den Fehler machen, Tech-Unternehmen im Umgang damit zu vertrauen.

Titus Blome beschäftigt sich in seiner Kolumne Maschinentext mit neuen Technologien

Nur für kurze Zeit!

12 Monate lesen, nur 9 bezahlen

Geschrieben von

Freitag-Abo mit dem neuen Roman von Jakob Augstein Jetzt Ihr handsigniertes Exemplar sichern

Print

Erhalten Sie die Printausgabe zum rabattierten Preis inkl. dem Roman „Die Farbe des Feuers“.

Zur Print-Aktion

Digital

Lesen Sie den digitalen Freitag zum Vorteilspreis und entdecken Sie „Die Farbe des Feuers“.

Zur Digital-Aktion

Dieser Artikel ist für Sie kostenlos. Unabhängiger und kritischer Journalismus braucht aber Unterstützung. Wir freuen uns daher, wenn Sie den Freitag abonnieren und dabei mithelfen, eine vielfältige Medienlandschaft zu erhalten. Dafür bedanken wir uns schon jetzt bei Ihnen!

Jetzt kostenlos testen

Was ist Ihre Meinung?
Diskutieren Sie mit.

Kommentare einblenden