Kapital Wie die Zukunft der Künstlichen Intelligenz aussieht, sollte eigentlich die Gesellschaft entscheiden. Jetzt tun es Investoren – nach den Interessen des Marktes, und mit schlecht bezahlten Clickworkern
Die Frage ist nicht: Wer hat's erfunden, sondern wer hat's gebaut?
Collage: der Freitag/midjourney
Künstliche Intelligenz wird die Welt verändern. Doch wie genau? KI kann Texte und Bilder generieren, sie kann chatten, Entscheidungsempfehlungen berechnen, Verbrechen aufklären, Werbung machen, Diagnosen stellen. KI kann die Gesellschaft in allen Bereichen in alle Richtungen beeinflussen. Doch wer entscheidet das? Wer entscheidet, wie KI wirken wird?
Die Antwort ist keine einfache. „Die Realität hoch entwickelter KI ist, dass die Verantwortung über diverse Akteure verteilt ist“, sagt Natalie Helberger, Professorin für Jura und Digitale Technologien in Amsterdam. Es gibt viele Glieder in der Wertschöpfungskette, die alle eine Rolle darin spielen, wie KI gestaltet wird. „Es gibt nicht die eine Person. Es ist ein Zusammenspiel.“
Wer ist
20;Wer ist die KI? Damit ist heute meist „Maschinelles Lernen“ gemeint: Hierbei wird ein Computer mit astronomischen Mengen an Daten (Texten, Videos, Bildern) gefüttert. Mit der Zeit entdeckt die KI Muster im Material, sodass sie, wie etwa ChatGPT, diese Muster gekonnt wiederholen kann – so gekonnt, dass es wirkt, als würde die KI denken und inhaltlich argumentieren. Wiederholt werden aber wirklich alle Muster: Hemmungslos reproduzieren KI Sexismus, Rassismus, Gewalt und Missbrauch aus ihren Trainingsdaten aus dem Netz. Die Filter-App Lensa, die aus Fotos futuristische Gemälde macht, verwandelte zum Beispiel ganz normale, von Frauen hochgeladene Selfies regelmäßig in Ganzkörper-Nacktbilder. Aus dieser Perspektive ist die also all das, was Menschen ins Netz eingespeist haben.Um die Reproduktion von Gewalt, Rassismus und Sexismus zu minimieren, greifen menschliche Arbeiter:innen der künstlichen Intelligenz unter die Schaltkreise. Sogenannte Content Moderators sichten und sortieren die toxischsten Teile der Trainingsdaten der KI als „sexuell“ oder „gewaltsam“ ein, damit sie für die Maschine als solche lesbar werden. Ingenieur:innen können das Programm dann anweisen, solche Inhalte nicht zu produzieren. So entsteht eine scheinbar „ethische“ „künstliche“ Intelligenz, obwohl es in Wahrheit allzu menschliche – und schlecht bezahlte – Intelligenz, Ethik und Kleinstarbeit ist, die dahintersteckt. OpenAI, das Unternehmen hinter Chatbot ChatGPT und Bilder-KI Dall-E, beauftragte hierfür die Firma Sama. Diese beschäftigt Arbeiter:innen in Kenia, die für weniger als zwei Dollar die Stunde die traumatisierenden Inhalte durchforsten mussten, wie eine Recherche des Time Magazine in New York ergeben hat.Richard Mathenge ist einer der Mitarbeiter, die die Daten für ChatGPT durchgingen. Er berichtete in einem Podcast, dass er einmal lesen musste, wie ein Vater einen Hund sexuell missbraucht, während sein Kleinkind dabei zuschaut. „Von zehn Texten waren sieben oder acht ungefähr schlimm wie das“, so Mathenge. Es habe ihn nachhaltig traumatisiert.Sama hat die Zusammenarbeit mit OpenAI beendet, nachdem das KI-Unternehmen wollte, dass die Arbeiter:innen für ein neues Projekt Fotos etikettierten, die unter anderem Kindesmissbrauch zeigten.Was Sama und OpenAI tun, ist gängige Praxis in der Tech-Branche. Hinter vorgeblich selbstständigen Systemen steckt in fast allen Fällen menschliche Arbeit wie die von Mathenge. Plattformen wie Tiktok Facebook kooperieren für ihre Content-Moderation ebenfalls mit Sama. Für die in der KI-Forschung beliebte Bilderdatenbank ImageNet durchforsteten und etikettierten 49.000 Arbeiter:innen aus 167 Ländern zweieinhalb Jahre lang insgesamt 3,2 Millionen Bilder. Die meisten von ihnen arbeiten für geringe Löhne im Globalen Süden. Sama verbuchte im Jahr 2022 Umsätze von 19,2 Millionen Dollar. Das Unternehmen OpenAI ist 29 Milliarden Dollar wert.Nun hat Mathenge zusammen mit 149 anderen kenianischen Moderator:innen eine Gewerkschaft gegründet, um bessere Arbeitsbedingungen zu fordern.Die neue Währung: IntimitätAn der Börse investiert man derweil Hals über Kopf in alles, was „KI“ im Namen trägt. Überall, wo mit großen Datenmengen hantiert wird, setzt man auf die neue Technologie: Es gibt KI-Anwaltsassistenten, die dabei helfen sollen, Aktenberge durchzuarbeiten. Unternehmen wie Tesla und Uber nutzen maschinelles Lernen, um autonomes Fahren zu verbessern und um Nutzer:innendaten auszuwerten. Das Unternehmen Palantir, gegründet vom rechtskonservativen Trump-Unterstützer Peter Thiel, bietet blitzschnelle Analyse von riesigen Datenmengen aus Videoüberwachung und diversen Datenbanken, nutzbar für die Polizeiarbeit. Durch solche Auswertungen sollen nicht nur vergangene Verbrechen aufgedeckt, sondern sogar zukünftige Gefahren berechnet und verhindert werden.Nicht-professionelle Nutzer:innen werden künstlicher Intelligenz meist in der Form von Chatbots begegnen. Das Unternehmen Replika bietet KI-„Gefährt:innen“ an: volldigitale Freund:innen, die immer verständnisvoll, immer verfügbar sind. Die beliebte Socialmedia-App Snapchat fügte dem Chatbot inzwischen „My AI“ bei. Dieser KI-Chat-Freund hat nun damit begonnen, in Unterhaltungen zwischen Nutzer:innen – also meist zwischen Freund:innen – gesponsorte Links einfließen zu lassen: Werbung. Aber nicht in bekannter Form, sondern so formuliert, als würde deine beste Freundin dir ganz persönlich einen Zeitungsartikel oder einen Schuh empfehlen.„Diese Bots können hochpersonalisierte Nachrichten formulieren“, zeigt sich Natalie Helberger besorgt, „das macht sie potenziell enorm manipulativ.“ Beginnen Chatbots sich zu finanzieren, indem sie Produkte oder Politiker:innen empfehlen, entsteht ein direkter Anreiz, sie besonders menschlich wirken zu lassen. Denn umso inniger unsere Beziehung zu ihnen, desto höher die Wahrscheinlichkeit, dass wir auf einen Link klicken. Intimität könnte Aufmerksamkeit als wichtigste Währung des Internets ersetzen. Wer bestimmt, wie die KI wird? Aus dieser Perspektive lautet die Antwort: Der Markt ist es, der die KI formt. Und der Markt sagt: Je menschlicher KI wirkt, desto mehr Nachfrage und desto mehr Profit ist in Aussicht.Konzerne, Clickworker, Marktmechanismen sind wichtige Player für die Frage, wer oder was KI wird – und dann gibt es noch die Politik und das Recht. Das Bundesverfassungsgericht hat die Nutzung von Palantir zur Polizeiarbeit bereits teilweise als verfassungswidrig erklärt. Über die KI-Verordnung der Europäischen Union soll noch bis Ende des Jahres abgestimmt werden. Zuletzt reagierte die EU-Kommission mit einigen Last-Minute-Änderungen auf die rasanten Entwicklungen der letzten Zeit: Modelle wie ChatGPT sollen nun Umwelt-, Urheberrechts- und Risikobewertungsstandards unterworfen werden. Auch dürfen solche Modelle sich nie als Mensch ausgeben, sondern müssen die eigenen Inhalte als KI-generiert kennzeichnen.Wer bestimmt also, wie die KI wird? Das sind Menschen, und zwar nach dem Muster, nach dem sie sich derzeit gesellschaftlich und wirtschaftlich organisieren: in Form von Unternehmensinteressen, Profitorientierung, Marktmechanismen und zarten Vesuchen von Politik und Recht, die Entwicklungen einzuhegen. „Letztendlich definiert sich das Risiko dieser Technologien darüber, wie Menschen sie verwenden“, sagt auch Helberger. Das ist die Aufgabe, die jetzt auf die Gesellschaft zukommt: die KI-Zukunft in die Bahnen zu lenken, die wir uns wünschen.