KI und wir: „Es geht um Keynes‘ Prognose, dass wir nur noch 15 Stunden arbeiten“
Interview Miriam Meckel und Léa Steinacker sind überzeugt, dass Künstliche Intelligenz menschliche Arbeit anreichern und Ungleichheit abmildern kann. Ein Gespräch
Montage: der Freitag; Material: iStock, Getty Images; Portraits: Stephanie Pistel
Wie beim Megathema Digitalisierung, so gilt auch für die Künstliche Intelligenz: Alle reden die ganze Zeit davon, aber fast immer bleibt nebulös, was damit gemeint ist. Wer profitiert wirklich vom Einsatz von KI? Und wen könnte sie den Job kosten? Aufklärung liefern die Journalistinnen und Unternehmerinnen Miriam Meckel und Léa Steinacker in ihrem jüngst erschienenen Buch Alles überall auf einmal. Wie Künstliche Intelligenz unsere Welt verändert und was wir dabei gewinnen können (Rowohlt 2024, 400 S., 26 €). Wir haben mit den beiden auf der Leipziger Buchmesse gesprochen.
der Freitag: Frau Meckel, Frau Steinacker, Ihr Buch heißt Alles überall auf einmal. Tatsächlich begegnet man derzeit ja wirklich überall und
gnet man derzeit ja wirklich überall und die ganze Zeit Berichten und Nachrichten über Künstliche Intelligenz, allerdings oft ohne, dass wirklich klar wird, wovon genau die Rede ist. Deswegen wäre es vielleicht nicht schlecht, wenn Sie da zu Beginn einmal Klarheit schaffen könnten: Wovon reden wir, wenn wir von KI sprechen?Léa Steinacker: Gerne. Künstliche Intelligenz ist eine Idee, die es schon sehr lange gibt. Also wirklich lange: Schon in der Ilias macht sich Homer Gedanken darüber, was passieren würde, wenn wir menschliche Fähigkeiten in eine Maschine projizieren könnten. Die Frage begegnet uns in der Menschheitsgeschichte immer wieder: Was, wenn wir menschliche Fähigkeiten, also Prozesse unseres Gehirns, kopieren und in einen Automaten, eine Technologie packen könnten? Dass wir heute dazu KI sagen, geht auf eine Konferenz von Computerwissenschaftlern zurück, die 1956 in Dartmouth stattgefunden hat. Der Begriff ist aber nicht sehr präzise, sondern ein Sammelbegriff für ganz viele verschiedene technologische Möglichkeiten und Methoden, die alle eines gemeinsam haben: Sie versuchen menschliche Fähigkeiten zu kopieren und in einer Maschine widerzuspiegeln.Die real existierende KI war aber bis vor kurzem noch eher banal und unauffällig, oder?Steinacker: Ich würde sagen: In den letzten 20 Jahren haben wir alle künstliche Intelligenz schon mal im Alltag erlebt. Wer auf Netflix einen Film geschaut, auf Google etwas gesucht oder auf Amazon etwas bestellt hat, hat im Hintergrund eine KI-Anwendung erlebt, die dann versucht hat, Empfehlungen zu geben, zum Beispiel, was man als nächstes gucken oder bestellen könnte. Das gibt es schon lange. Aber seit ungefähr zwei Jahren gibt es jetzt eine Form von KI, die noch mal eine andere Qualität hat.Miriam Meckel: Wir nennen das den iPhone-Moment der KI, den wir auf den 30. November 2022 datieren können. Das war der Tag, als OpenAI, eine amerikanische Technologiefirma, ChatGPT auf den Markt gebracht hat. Was war daran besonders? Auf einmal war es für eine breite Öffentlichkeit möglich, mit KI zu interagieren, sie zu befragen, sie anzuwenden. Seitdem ist KI in der Wahrnehmung der Menschen sehr viel stärker ins Zentrum gerückt. Die Technologie, die dahintersteht, ist noch relativ jung: Sogenannte Transformer-Modelle, die auf die ganze Forschungsgeschichte der KI aufbauen, aber im Jahr 2017 ihren Durchbruch erlebten. Sie analysieren auf unfassbar effektive Art und Weise Beziehungen zwischen Elementen oder Daten, leiten daraus Muster ab und treffen damit Vorhersagen. Um das an einem Beispiel zu verdeutlichen: Wenn ich den Satz ausspreche „Der Hund kann den Knochen nicht tragen, weil er zu schwer ist“, dann wissen wir Menschen relativ schnell, dass wahrscheinlich der Knochen gemeint ist, der zu schwer ist und nicht der Hund. Eine Software weiß nichts davon: Sie hat keine Idee davon, was ein Hund ist, was ein Knochen ist, was Tragen bedeutet, sie versteht nichts, sie hat ja kein Bewusstsein. Aber diese Transformer-Modelle der künstlichen Intelligenz schaffen es, die Beziehungen und Wahrscheinlichkeiten von Worten, die in bestimmten Sätzen und Zusammenhängen vorkommen, so perfekt vorherzuberechnen, dass die KI den richtigen Satz baut, in dem der Knochen zu schwer ist und nicht der Hund.Aber „weiß“ oder „versteht“ die KI denn tatsächlich überhaupt irgendwas? Sie berechnet doch eigentlich nur, welches Wort mit sehr hoher Wahrscheinlichkeit als nächstes folgt? Und sie macht das, indem sie sich auf alles stützt, was im Internet steht: nicht nur auf die Encyclopedia Britannica, sondern auch auf gutefrage.de oder Reddit oder ähnliches? Wo halt auch jede Menge Stuss zu finden ist?Steinacker: Klar wurde zum Beispiel ChatGPT mit einem großen Teil des Internets trainiert, mit Wikipedia oder Reddit etc. Aber was die Anwendung besonders macht, ist, dass sie schon seit über einem Jahr in Benutzung ist und seitdem millionenfach menschliches Feedback bekommen hat. Jedes Mal, wenn wir diese Anwendung nutzen, lernt sie im Hintergrund weiter.Meckel: Derlei Anwendungen von KI sind im Kern hocheffiziente statistische Wort-Wahrscheinlichkeits-Voraussage-Maschinen, nichts anderes.Was mich bei meinen ersten Versuchen mit ChatGPT ziemlich irritiert hat, war, dass er die Gesetze der Logik sprengte: Als ich ihn fragte: Sind E-Fuels eine gute Sache? Sie erinnern sich vielleicht, damals pushte die FDP die Idee, dass Verbrennungsmotoren in Zukunft mit E-Fuels weiter betrieben werden könnten. Alle Experten sagten damals, das ist irre ineffizient: wenn man den Strom, den man für die Herstellung von Efuels braucht, direkt in die Batterie eines Elektroautos laden würde, wäre das um ein Vielfaches effizienter. Und was sagte ChatGPT: Im Grunde wiederholte er eins zu eins die FDP-Position, also PR, die nun mal im Internet steht, aber sachlich falsch ist. Also habe ich geantwortet: Das ist falsch, ChatGPT, Efuels sind doch hochgradig ineffizient! Worauf ChatGPT sagte: „Ja, das stimmt nicht“. Er konnte also zwei Meinungen zugleich vertreten, die sich vollständig widersprachen: Das ist doch die Definition von unlogisch!Meckel: ChatGPT ist oft ein Opportunist, ganz klar. Je nachdem, wie man fragt, kriegt man die entsprechende Antwort.In Ihrem Buch hat mich genau das fasziniert und zugleich verstört: Die KI simuliert Logik und Stringenz und Wissen von der Welt. Wir wissen, dass sie dieses Wissen nicht hat, sondern es nur imitiert. Aber zugleich ist der Unterschied irgendwann bedeutungslos: Wenn die Simulation von Intelligenz so gut ist, dass man sie nicht von echter Intelligenz unterscheiden kann, dann ist es egal, dass es nur einen Simulation ist?Steinacker: Ja, das wäre die Position von Alan Turing, der sich dazu viele Gedanken gemacht hat: Können Maschinen denken? Wir kennen ja den „Turing-Test“, also den Versuch, beim Chatten mit einem Computer herauszufinden, ob auf der anderen Seite ein Mensch sitzt oder eine Maschine. Turing selbst nannte das das „Imitationsspiel“: Wenn man nicht mehr in der Lage ist, zu sagen, ob man sich gerade mit einem Computer oder mit einem Menschen unterhält, dann kann man das Verhalten des Computers als intelligent beschreiben. Dann ist es auch egal, ob der wirklich denkt oder nur statistische Wortwahrscheinlichkeiten berechnet, es macht keinen Unterschied mehr in unserer Wahrnehmung. Schon 1965 hat der deutsch-amerikanische Wissenschaftler Joseph Weizenbaum einen Chatbot namens ELIZA erschaffen, der eine Therapeutin nachahmte. Weizenbaum hat ELIZA bei vielen Testpersonen ausprobiert, er war schockiert, wie schnell viele Menschen diesem Chatbot ihre intimsten Geheimnisse anvertraut haben. Weil sie das Gefühl hatten: Irgendwie versteht diese Maschine mich.Ein großer Teil Ihres Buches handelt davon, was wir denn mit KI überhaupt anstellen können. Das ist ja schon an vielen Ecken und Enden im Gange, wir nutzen KI in erster Linie aber nicht als Therapeutin, sondern eher so wie ein Exoskelett für Büromenschen, also im Grunde als Unterstützung für alles, was wir am Computer tun: Emails schreiben, Kalendereinträge, Meetings, Transkriptionen, da ist die KI überall unterstützend jetzt schon am Werk. Sie verwenden das Bild eines smarten Praktikanten.Meckel: Ich glaube, dass wir hier erst noch am Anfang stehen. Aber es gibt schon ein paar interessante Studien und Experimente dazu, die zeigen, dass nicht sofort eine Jobgruppe verschwinden wird, sondern eher innerhalb von Tätigkeitsprozessen, vor allem natürlich in der Büro- und Wissensarbeit, bestimmte Arbeitsschritte mit künstlicher Intelligenz angereichert werden und zum Teil ersetzt werden können. Das bedeutet einen Produktivitätsgewinn, der zum Beispiel auch Menschen die Arbeit erleichtert, die nicht so gut ausgebildet sind, was ja heißen kann, dass dadurch Ungleichheiten ein bisschen abgemildert werden. Vor allem könnten wir alle sehr viel effizienter arbeiten: Niemand antwortet gerne auf 700 Emails oder kümmert sich um Terminabstimmungen, das sind alles Dinge, die eine KI übernehmen kann.Oft wird die Diskussion über die KI und die Digitalisierung allgemein ja ein bisschen nebulös geführt: Es ist nicht klar, wer davon profitieren wird? Und wer wird dabei unter die Räder kommen? Wenn man beim Bild der KI als Praktikant bleibt: Es kann ja auch sein, dass ein Arbeitgeber sich denkt, der Praktikant ist viel billiger, und der macht die Arbeit auch ganz ok, also entlassen wir jetzt Leute. Und wie wäre es aber umgekehrt möglich, dass die Produktivitätsgewinne durch KI zu Gunsten und nicht zu Lasten der Beschäftigten gehen? Dass man also weniger arbeiten muss, weil die KI einem was abnimmt?Meckel: Das wird eine der Kernherausforderungen dabei sein, wie wir als Gesellschaft mit Künstlicher Intelligenz umgehen. Wir sollten damit schlauer umgehen als mit anderen technischen Neuerungen in der Vergangenheit. Ich erinnere an die Prognose von John Maynard Keynes, dem großen Ökonomen, der vor knapp 100 Jahren gesagt hat: Der technologische Fortschritt wird dazu führen, dass meine Enkelkinder in Zukunft nur noch 15 Stunden pro Woche arbeiten müssen. Das ist genau das, worum es geht: Wir könnten unseren Arbeitsmarkt und unser Leben bei Wachstumsmöglichkeiten anders organisieren mithilfe von KI. Im Silicon Valley in den USA gibt es eine Riesendiskussion darüber, ob man die künstliche Intelligenz besteuern sollte, um damit ein bedingungsloses Grundeinkommen zu ermöglichen und damit Berufsgruppen zu unterstützen, die negativ von der KI betroffen sind. Ich finde, wir sollten diese Diskussion jetzt führen, weil die Veränderung, die durch generative KI kommt, mindestens so groß sein wird wie die durch das Internet und durch die Digitalisierung. Vielleicht sogar so groß, wie die Veränderungen durch die Entdeckung der Elektrizität. Es wird also ein einschneidender Fortschritt, der unsere Zivilisation auf eine andere Stufe führen wird. Wir brauchen neue Regeln und ein neues Verständnis, um die Zusammenarbeit und das Zusammenleben von Menschen mit Maschinen zu gestalten, das geht nicht nach den alten Gewohnheiten.Steinacker: Ein erster Schritt sollte sein, dass man die Menschen dazu befähigt, überhaupt zu verstehen, wie sie KI nutzen könnten. Wir sind klar der Meinung: KI selbst wird den Menschen nicht ersetzen. Aber Menschen, die mit KI umzugehen wissen, werden Menschen zumindest in Arbeitsschritten ersetzen, die das nicht können. Das Wichtigste ist ja, zu verstehen, wann es überhaupt Sinn macht, diese Technologie zu nutzen und wann nicht: Wann ist die menschliche Intuition und unser Bauchgefühl und unsere zwischenmenschliche Kompetenz wichtiger? Wenn wir diesen Unterschied verstehen, dann kann Künstliche Intelligenz sehr positive Auswirkungen haben. Und wenn wir unsere gesellschaftlichen Verträge und Vereinbarungen insofern reformieren, als dass genau das nicht passiert, was Sie skizziert haben, nämlich dass nur einige wenige davon profitieren und viele Menschen nicht.In Ihrem Buch schreiben Sie, dass Sie den Begriff „Künstliche Intelligenz“ für unglücklich halten. Warum?Steinacker: Der Begriff Künstliche Intelligenz impliziert, dass wir alle wüssten, was wir mit Intelligenz eigentlich meinen. Dabei ist genau das ja ein umstrittener Begriff oder jedenfalls ein Begriff, der sehr viele Interpretationen hat. Es gibt kognitive Intelligenz, emotionale Intelligenz, Beziehungsintelligenz. Das heißt, zu sagen, dass eine Maschine Intelligenz hat, ist schon mal sehr irreführend. Das nächste Problem ist, dass wir uns ja fragen: Heißt Intelligenz auch gleich Bewusstsein? Nein. Deswegen würde es helfen, wenn wir einen Begriff nutzen, der besser beschreibt, was diese Technologie können soll: ein Beispiel wäre „maschinelle Nützlichkeit“. Das würde sofort signalisieren: Die MN muss uns Menschen helfen, dazu ist sie da. Es gäbe im Englischen ja auch viele Alternativen, die wir hätten nutzen können. Tatsächlich glaube ich, haben uns die Forscher, die den Begriff von Künstlicher Intelligenz im Jahr 1950 geprägt haben, damit keinen Gefallen getan haben.Meckel: Wir könnten auch Augmented Utility sagen, also so was wie „Erweiterte Nützlichkeit“. Das hätte besser deutlich gemacht: Es geht um ein Werkzeug, das wir Menschen für uns nutzen können.Placeholder infobox-1
×
Artikel verschenken
Mit einem Digital-Abo des Freitag können Sie pro Monat fünf Artikel verschenken.
Die Texte sind für die Beschenkten kostenlos.
Mehr Infos erhalten Sie
hier.
Aktuell sind Sie nicht eingeloggt.
Wenn Sie diesen Artikel verschenken wollen, müssen Sie sich entweder einloggen oder ein Digital-Abo abschließen.