EU AI Act: Wie sieht der KI-Unfall aus?

Kolumne Die Europäische Union hat sich mit dem „AI Act“ auf umfassende Regeln für Künstliche Intelligenz geeinigt. Leider hat das Gesetz an entscheidenden Stellen noch immer Lücken
Wer in ein Indycar einsteigt, kennt das Risiko
Wer in ein Indycar einsteigt, kennt das Risiko

Foto: Imago/Icon Sportswire

Mit jeder neuen Technologie, die wir erfinden, erfinden wir auch ihren Unfall. „Das Segel- oder Dampfschiff zu erfinden, bedeutet, den Schiffbruch zu erfinden. Die Eisenbahn zu erfinden, bedeutet, das Eisenbahnunglück des Entgleisens zu erfinden. Das private Automobil zu erfinden, bedeutet die Produktion der Massenkarambolage auf der Autobahn“, schreibt der Philosoph Paul Virilio in Der eigentliche Unfall. Leider weiß man selten vorher, wie der Unfall einer neuen Technologie aussehen wird.

Für den Erfinder des Autos wäre die Idee einer „Massenkarambolage“ theoretisch denkbar aber praktisch lächerlich gewesen, denn sie setzt Geschwindigkeiten und Mengen von PKWs voraus, die damals absurd erscheinen mussten. Und häufig ist es nicht eindeutig, worin der Unfall besteht: wurde Unfall für Elektrizität entdeckt, als jemand erstmals einen tödlichen Stromschlag erhielt oder war der Unfall dieser Technologie, als eine elektronische Rechenmaschine, der MANIAC I-Computer, genutzt wurde, um die Konstruktion der ersten Atombombe zu ermöglichen?

Am Freitag hat sich die EU auf erste Regeln für Künstliche Intelligenz geeinigt. Erst einmal: Bravo! Wer hätte gedacht, dass Brüssel sich so schnell auf eine Regelung einigt, die aus mehr besteht, als einem Memo an Tech-Unternehmen auf dem „Bitte seid lieb“ steht. Was wir bisher darüber wissen, zeugt von ernstzunehmender Auseinandersetzung mit der Technologie – ich kann kaum ausdrücken, wie erfrischend es ist, so etwas zu sehen. Es steht Gutes drin: Das dystopische Predictive Policing, wo berechnet wird, mit welcher statistischen Wahrscheinlichkeit jemand in Zukunft kriminell wird, wird verboten.

Gleichzeitig gibt es große Lücken: Gesichtserkennung ist zwar allgemein verboten, aber sie ist erlaubt, um gezielt Menschen zu finden, die bestimmte Verbrechen begangen haben, wie „Teilnahme in einer kriminellen Vereinigung“. Das wird einzelnen Mitgliedstaaten sehr viel Freiheit geben, KI unter fadenscheinigen Vorwänden gegen besonders schutzbedürftige Menschen wie Asylbewerber:innen oder politische Aktivist:innen zu missbrauchen. Die Anwendung hätte komplett verboten werden sollen.

Systemisches Risiko

Die EU hat immerhin Lobbyismus aus Deutschland, Frankreich und Italien ignoriert, sogenannte Basis-Modelle (wie dem hinter ChatGPT) gar nicht gesetzlich zu regulieren. Besonders Wirtschaftsminister Habeck und der französische Ex-Staatssekretär für Digitales Cédric O haben sich beschämende Weise vollständig von europäischen KI-Unternehmen einspannen lassen und hätten fast zwei Jahre Verhandlung in die Luft gejagt. Ihr Scheitern ist ein Sieg für alle, die darauf hoffen, dass KI-Technologie womöglich dem Allgemeinwohl zugutekommt und nicht nur der Investorenklasse.

Nun müssen Entwickler solcher „General Purpose AI“-Modelle, die für viele unterschiedliche Dinge verwendet werden können, ein paar Regeln befolgen, besonders wenn von ihren Systemen „systemische Risiken“ ausgehen. Was ein „systemisches Risiko“ ist, wird wohl an Stellvertreterwerten festgemacht, wie genutzte Rechenleistung, Nutzerzahlen oder die Investitionen hinter dem Modell. Auch hier hat sich also der Glaube durchgesetzt, dass die leistungsfähigsten Modelle die gefährlichsten sind. Mit dem Beispiel vom Anfang: der tödliche Stromschlag, die schiere Volt-Menge wird als die wahrscheinliche Unfallquelle betrachtet – höhere Zahl gleich höhere Gefahr, eine einfache Rechnung. Die sanftere Spannung, die den Computerschaltkreis zum Laufen bringt, wird als weniger gefährlich angesehen. Dabei könnte sie es sein, die die Atombombe ermöglicht.

Ein ultraleistungsfähiges KI-Modell ermöglicht Fake-News- und Propagandaproduktion im großen Stil, Cyberattacken, Manipulation und mehr. Aber auch für schwächere Modelle wird man Wege finden, mit ihnen verheerenden Schaden anzurichten. Sie von den strikteren Regeln auszunehmen ist ein wenig, als würde man das Auto erfinden und dann Airbags einbauen aber keine Sitzgurte. Wir brauchen beides, denn in Sachen KI fahren wir immer noch auf Sicht.

Maschinentext

Titus Blome beschäftigt sich in seiner Kolumne Maschinentext mit neuen Technologien

Nur für kurze Zeit!

12 Monate lesen, nur 9 bezahlen

Geschrieben von

Freitag-Abo mit dem neuen Roman von Jakob Augstein Jetzt Ihr handsigniertes Exemplar sichern

Print

Erhalten Sie die Printausgabe zum rabattierten Preis inkl. dem Roman „Die Farbe des Feuers“.

Zur Print-Aktion

Digital

Lesen Sie den digitalen Freitag zum Vorteilspreis und entdecken Sie „Die Farbe des Feuers“.

Zur Digital-Aktion

Dieser Artikel ist für Sie kostenlos. Unabhängiger und kritischer Journalismus braucht aber Unterstützung. Wir freuen uns daher, wenn Sie den Freitag abonnieren und dabei mithelfen, eine vielfältige Medienlandschaft zu erhalten. Dafür bedanken wir uns schon jetzt bei Ihnen!

Jetzt kostenlos testen

Was ist Ihre Meinung?
Diskutieren Sie mit.

Kommentare einblenden