Es ist wieder Dezember. Die westliche Welt ist schwer damit beschäftigt, ihre traditionellen Märchen nachzuerzählen. Sie handeln von fliegenden Rentieren und unsterblichen Großvätern, die am eisigen Nordpol Spielzeug basteln. Dieses Jahr ist allerdings besonders, denn ein neues Fabelwesen hat die Bühne betreten. Es ist groß. Wirklich sehr groß. Es weiß alles. Es ist unsichtbar. Und doch können wir ihm alle unsere Fragen anvertrauen. Die Eingeweihten nennen es LLM, was für Large Language Model, also „Großes Sprachmodell“ steht. Aber die meisten von uns sagen einfach KI beziehungsweise künstliche Intelligenz oder nutzen den Markennamen der Saison: ChatGPT.
Seit der Veröffentlichung dieses Chatbots der Firma Open
Firma OpenAI im November vergangenen Jahres hat künstliche Intelligenz fast täglich Schlagzeilen gemacht. Jede_r will ein Stückchen von ihr. Auf den sozialen Medien schwärmen Nutzer_innen von ihren Chatbot-Erfahrungen – sei es, dass er als Gefährte, Sekretär oder wissenschaftlicher Mitarbeiter dient. Große Firmen präsentieren stolz ihre KI-gestützten Abläufe und kleine Unternehmen versuchen ebenfalls, Chatbots in ihren Kundendienst zu integrieren. Philosoph_innen geben sich skeptisch, aber loben beim Abendessen die Eloquenz ChatGPTs.Rettung oder RisikoWährend das KI-Fieber die Welt erfasste, begannen die möglichen Folgen der neuen Technologie auch Regierungsinstitutionen zu beschäftigen. In ihrer Rede zur Lage der Union am 13. September vor dem EU-Parlament erklärte EU-Kommissionspräsidentin Ursula von der Leyen, dass die neuen Technologien „Gesundheitsversorgung verbessern, die Produktivität steigern und zur Eindämmung des Klimawandels beitragen“ werden. Bemerkenswerterweise forderte sie aber zugleich starke Schutzvorkehrungen, um den etwaigen düsteren Folgen des Gebrauchs von KI vorzubauen. Denn womöglich stünde das Überleben der Menschheit auf dem Spiel.Dass eine Spitzenpolitikerin die Bevölkerung vor Roboterarmeen warnt, war bislang der Science-Fiction-Literatur vorbehalten. Ebenso erstaunlich ist die Widersprüchlichkeit: rettende Technik? Oder Technik, vor der wir uns retten sollten? Ist die Lage wirklich dermaßen ungewiss? KI fällt nicht downloadbereit durch den Schornstein, sondern wird von Menschen unter politisch gestalteten Bedingungen entwickelt. Diese Bedingungen haben sich in den letzten Jahren gewandelt, insbesondere im Bereich der Sprachtechnologien. War die Computerlinguistik – die Erforschung von Sprache mit maschinellen Mitteln – bis vor einigen Jahren noch eine überwiegend universitäre Angelegenheit, wird das Feld inzwischen von privaten Akteuren dominiert. Das wirkt auf seine Ausrichtung zurück.KI hat einen Entwicklungspfad eingeschlagen, der einseitig auf die Ressourcen baut, die einige Tech-Giganten durch ihr bisheriges Geschäftsmodell angehäuft hatten: immense Datenmengen und Rechenkapazität. In ihrer Forschung benutzen die KI-Abteilungen der Firmen diese Ressourcen und spezialisieren sich auf eine bestimmte Art von Modellen – generalisierte und große. Nicht umsonst heißt es Large Language Model. An diesen besitzen die Firmen anschließend ein Quasi-Monopol, einfach, weil es für andere Akteure zu kostspielig wäre, etwas Vergleichbares zu bauen.Inzwischen geben die großen Sprachmodelle oft auch den Evaluationsstandard vor. Fortschritt bemisst sich an dem, was diese gut beherrschen – Konversations-Mimikry –, nicht an ihren Schwächen: Mathematik, Dichtung und Wahrheit etwa, die man ja durchaus auch für einen Bestandteil von Intelligenz halten könnte.Es ist nicht so, dass es dabei gar keine Sicherheitsrisiken gäbe. In mancher Hinsicht können LLMs durchaus gefährlich sein: Da sie wahllos alle Daten verschlingen, die ihnen vorgesetzt werden, spucken sie auch Undifferenziertes aus. Das Risiko, dass sie Fehlinformationen und verletzende Vorurteile verbreiten, ist ernst zu nehmen. In den Weltuntergang führt das aber beileibe nicht. Ebenso wenig entstehen die Fehlleistungen aus einer rapiden, ungesteuerten Evolution der Maschinen selbst. Sofern hier eine Gefahr besteht, resultiert sie eher aus künstlicher Dummheit denn aus künstlicher Intelligenz. Die Fehler bedeuten nicht, dass die KI sich plötzlich zu bewaffnen beginnt und Schlachtpläne entwickelt. Sie sehen eher so aus, dass anstatt eines eloquent klingenden Paragrafen auf einmal offensichtlicher Unsinn auf dem Monitor erscheint. Die Forschung dazu, gerade auch jener, die sich mit KI-Sicherheit befassen, macht deutlich, dass die Technologie sehr fragil ist. So fragil, sollte man meinen, dass sie weder im Begriff steht, uns alle umzubringen, noch uns zu retten.Wie kommt Ursula von der Leyen also zu ihren schweren Bedenken? Sie zitierte wörtlich ein Statement des Center for AI Safety aus San Francisco, das von etlichen Experten der Branche unterzeichnet wurde und nur aus diesem einen Satz besteht: „Die Verringerung des Risikos, dass die KI zum Aussterben des Menschen führt, sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkriegen eine globale Priorität darstellen.“ Dieses Statement gab auch den Anlass dazu, dass die britische Regierung Anfang November dieses Jahres den weltweit ersten KI-Sicherheitsgipfel in Bletchley Park einberief, zu dem sich Repräsentant_innen von 28 Nationen mit Vertreter_innen aus Softwareunternehmen und Forschungseinrichtungen versammelten. Am Ende unterzeichneten alle ein Papier, in dem sie sich verpflichteten, zur Abwendung der etwaigen katastrophalen Fehlentwicklungen und Sicherheitsrisiken von KI zusammenzuarbeiten.Weder erklärt sich das aus der Funktionsweise neuronaler Netzwerke, noch stößt man bei denen, die tagtäglich mit ihrer Entwicklung beschäftigt sind, auf diese Angst machenden Einschätzungen. Woher kommen sie dann?Systematisch verbreitet werden die Warnrufe in einer speziellen Nische des Stiftungswesens. Vor fünf Jahren stieß das Netzwerk für Effektiven Altruismus eine Spendenkampagne mit dem Schwerpunkt „x-risk“ an, das steht für „existenzielles Risiko“. Der effektive Altruismus (EA) basiert auf einer philosophischen Doktrin, dergemäß es in der Wohltätigkeit um mathematisch kalkulierbare Effizienz gehen solle. Das hat viele fragwürdige Implikationen, wie etwa, dass das Leben eines Arztes mehr wert sei als das einer Verkäuferin, weil dieser wiederum mehr andere Leben erhält.Seit einer neueren, „longtermism“ genannten Wende des Ansatzes gilt auch, dass das Leben hundert Billionen potenzieller Menschen in der Zukunft über das der gegenwärtig lebenden acht Milliarden priorisiert werden sollte. Neben Atomkrieg und tödlichen Pandemien hat sich die EA-Anhängerschaft ausgerechnet darauf verständigt, dass eine sich verselbstständigende KI das größte Auslöschungsrisiko darstelle. Das für „x-risk“ gesammelte Geld soll dieser Gefahr entgegenwirken, indem Aufklärungsarbeit, politischer Lobbyismus und informatische Forschung finanziert werden. Wie wichtig da plötzlich diejenigen werden, die sich dieser Gefahr unter Aufbringung großer Spendensummen entgegenstellen!Manöver TaschenspielertrickVerschiedene Journalist_innen sind inzwischen den Geldströmen im EA-Bereich nachgegangen, unter ihnen Nirit Weiss-Blatt. Ihren Schätzungen zufolge ist eine halbe Milliarde Dollar von effektiven Altruist_innen in die „x-risk“-Kampagne geflossen. Zu den Empfängern gehören verschiedene Thinktanks beiderseits des Atlantiks, die Lobbyarbeit betreiben. Nitasha Tiku, Redakteurin der Washington Post, hat zu den Förderstrategien von EA im universitären Kontext recherchiert. Dort finanziert die Bewegung die nächste Generation von Mutiplikator_innen. Über ihre zentrale Nonprofit-Organisation Open Philanthropy gewähren effektive Altruist_innen BA-Studierenden, die bereit sind, „x-risk“-Hochschulgruppen zu gründen, „university organizer fellowships“ von bis zu 80.000 US-Dollar jährlich. Empfänger_innen dieser Professorengehälter überbietenden Stipendien finden sich an den großen US-Universitäten ebenso wie an einer wachsenden Anzahl von europäischen Hochschulen.Die Mittel stammen von Organisationen und Einzelspendern, die ihr Vermögen im digitalen Sektor gemacht haben. Einer der Mitbegründer von Open Philanthropy, Dustin Moskovitz, machte seine Milliarden durch Facebook. Sam Bankman-Fried, der hinter der insolventen Börse für Kryptowährungen FTX stand, investierte 500 Millionen Dollar in Anthropic AI, ein Unternehmen, das in der Presse wiederholt mit EA in Verbindung gebracht wurde und das Aussterbe-Risiko propagierte. Im Vorstand von OpenAI finden sich ebenfalls EA-Sympathisant_innen.Nun mag man fragen, welches Interesse diese Akteure eigentlich an der Panikmache in Bezug auf ihre eigenen Produkte haben. Ist dies nicht eher eine zufällige Konvergenz – dass die Leute, die im Informatiksektor investieren, auch Sci-Fi-inspirierte Fantasien hegen? Das mag sein. Aber selbst wenn EA-Anhänger_innen an die drohende Omnipotenz ihrer Technologie glauben sollten, vollzieht sich hier doch das Manöver des klassischen Taschenspielertricks: Zum Blickfang wird mit einem roten Tuch gewedelt und währenddessen verschwindet das Ass im Ärmel, das man anschließend wieder hervorzaubert.Welche Technologie eigentlich entwickelt werden sollte, ob sie Kapitalinteressen dienen darf, während sie sich laufend Informations-Gemeingut aneignet, wie gut sie wirklich darin ist, anderen Menschheitsproblemen abzuhelfen – all das gerät aus dem Blick, wenn man nur auszumachen versucht, ob das Wunderwerkzeug irgendwann die Menschheit auszurotten gedenkt. Ganz zu schweigen von all den anderen politischen Problemen, die diesem Gruselszenario gegenüber für zweitrangig erklärt werden. Wenn schon die Politker_innen die Rede vom existenziellen Risiko übernehmen, kann man nur hoffen, dass die Öffentlichkeit sich weniger vormachen lässt. Wir sollten uns unsere echten Sorgen nicht ausreden lassen und zudem Wünsche nach Technik kultivieren, die besser ist als das, was die besorgten Billionäre bislang gebaut haben.Placeholder authorbio-1
×
Artikel verschenken
Mit einem Digital-Abo des Freitag können Sie pro Monat fünf Artikel verschenken.
Die Texte sind für die Beschenkten kostenlos.
Mehr Infos erhalten Sie
hier.
Aktuell sind Sie nicht eingeloggt.
Wenn Sie diesen Artikel verschenken wollen, müssen Sie sich entweder einloggen oder ein Digital-Abo abschließen.