Im Gespräch Wenn Regierungen vor Künstlicher Intelligenz warnen, vergessen sie den Finanzsektor, sagt Yuval Noah Harari. Was, wenn da bald mit KI-generierten Geldanlagen gehandelt wird, die kein Mensch versteht? Hier schlägt der Historiker Lösungen vor
Der israelische Historiker Yuval Noah Harari sorgt sich vor den Folgen von Künstlicher Intelligenz
Foto: Picture Alliance
Künstliche Intelligenz (KI) könnte eine Finanzkrise mit „katastrophalen Folgen“ auslösen, so der Historiker Yuval Noah Harari. Im Gespräch sagt er, dass die rasanten Fortschritte im Bereich KI eine Vorhersage ihrer Gefahren schwierig macht. Anders als bei Atomwaffen gebe es nicht das eine „große, gefährliche Szenario“, das jeder verstehe. „Bei der KI geht es um eine sehr große Zahl gefährlicher Szenarien, von denen jedes eine relativ geringe Wahrscheinlichkeit hat.“ Aber zusammengenommen würden sie „eine existenzielle Bedrohung für das Überleben der menschlichen Zivilisation“ darstellen. Schon lange verfolgt der Mann, der Eine kurze Geschichte der Menschheitgeschrieben hat, die Entwicklu
ion“ darstellen. Schon lange verfolgt der Mann, der Eine kurze Geschichte der Menschheit geschrieben hat, die Entwicklung mit großer Besorgnis. Welche Lösung schlägt der Bestsellerautor vor?Die multilaterale Erklärung, die Anfang November auf dem globalen KI-Sicherheitsgipfel in Bletchley Park abgegeben wurde, bezeichnet Harari als „sehr wichtigen Schritt nach vorn“, da sich führende Regierungen zusammengefunden hätten, um ihre Sorge über die Technologie zum Ausdruck zu bringen – und etwas dagegen zu unternehmen.„Das Ermutigendste und Hoffnungsvollste daran ist vielleicht, dass nicht nur die Europäische Union, das Vereinigte Königreich und die Vereinigten Staaten, sondern auch die chinesische Regierung die Erklärung unterzeichnet haben“, so Harari. „Ich denke, das war ein sehr positives Zeichen.“ Ohne globale Zusammenarbeit sei es extrem schwierig, wenn nicht gar unmöglich, das Gefahrenpotenzial von KI einzudämmen. Das Gipfeltreffen endete mit einer Vereinbarung: Bei der Prüfung fortgeschrittener KI-Modelle wollen die Unterzeichner fortan enger zusammenarbeiten. Unterschrieben haben zehn Regierungen (darunter das Vereinigte Königreich und die USA, aber nicht China), die EU und großen KI-Unternehmen (zum Beispiel der ChatGPT-Entwickler OpenAI und Google).Yuval Noah Harari unterstützt die Idee eines sechsmonatigen Moratoriums für die Weiterentwicklung von KI„KI unterscheidet sich von jeder anderen Technologie in der Geschichte der Menschheit, weil sie die erste Technologie ist, die selbstständig Entscheidungen treffen, selbstständig neue Ideen kreieren und die selbstständig lernen und sich entwickeln kann“, so Harari. „Es ist für den Menschen, selbst für jenen, der die Technologie entwickelt hat, per definitionem extrem schwierig, alle potenziellen Gefahren und Probleme vorherzusehen.“ Ein Beispiel: KI-Systeme könnten bei der Herstellung von Biowaffen helfen. Diese Gefahr haben auch die Regierungen im Blick. Aber es gibt auch andere Szenarien, die in Betracht gezogen werden müssen. So weist Harari auf den Finanzsektor hin: „Das ist der ideale Bereich für KI, weil es sich alles um Daten dreht.“ Somit stellt er eine potenzielle Quelle für eine ernste, durch KI verursachte Krise dar.„Was passiert, wenn die KI nicht nur eine größere Kontrolle über das Finanzsystem der Welt erhält, sondern auch neue Finanzinstrumente schafft, die nur die KI verstehen kann und die kein Mensch mehr durchdringt?“, fragt Harari. Und fügt hinzu, dass die Finanzkrise von 2007/ 2008 durch Finanzprodukte wie die „Collateralized Debt Obligations“ (CDOs) verursacht wurde. Diese wurden nur von wenigen Menschen verstanden und waren daher unzureichend reguliert. „Und jetzt stellen Sie sich vor, dass wir ein Finanzsystem haben, das kein Mensch versteht und daher auch nicht regulieren werden kann“, so Harari. „Und dann gibt es eine Finanzkrise und niemand versteht, was passiert.“Im vergangenen Monat äußerte die britische Regierung Bedenken, dass ein fortschrittliches KI-Modell durch die Kontrolle und Manipulation von Finanzsystemen eine existenzielle Bedrohung darstellen könnte. Harari glaubt, dass eine durch KI verursachte Finanzkrise die menschliche Zivilisation nicht zerstören würde – „zumindest nicht direkt.“ Indirekt sei das aber möglich, wenn dadurch bestimmte Arten von Kriegen oder Konflikten ausgelöst würden. „Es ist ein katastrophales Risiko – wirtschaftlich, sozial, politisch –, aber für sich genommen würde ich es nicht als existenziell bezeichnen.“Trotzdem unterstützt der israelische Autor die Forderung nach einer sechsmonatigen Pause bei der Entwicklung fortgeschrittener KI. Auch setzt er sich dafür ein, dass Unternehmen für Schäden, die ihre Produkte verursachen, haftbar gemacht werden. Der Schwerpunkt sollte nicht auf spezifischen Vorschriften und Gesetzen liegen, sondern auf Regulierungsinstitutionen, die sich mit der Technologie auskennen und schnell reagieren können, wenn neue technologische Durchbrüche entstehen. „Wir müssen so schnell wie möglich leistungsfähige Institutionen schaffen, die in der Lage sind, die Gefahren zu erkennen und auf sie zu reagieren, sobald sie auftreten.“Können Finanzaufsichtsbehörden die KI kontrollieren?Allerdings müssten wir uns darüber im Klaren sein, dass wir nicht alle Gefahren und Probleme im Voraus vorhersehen und dagegen Gesetze erlassen können. „Wir sollten jetzt keine lange und komplizierte Verordnung schreiben, die zu dem Zeitpunkt, an dem sie das Parlament oder den Kongress passiert, vielleicht schon wieder veraltet ist.“ Besser sollten KI-Sicherheitsinstitute Experten einstellen, die die potenziellen Auswirkungen von KI auf die Finanzwelt verstehen.Letzten Monat kündigte der britische Premier Rishi Sunak die Gründung eines KI-Sicherheitsinstituts an. Einige Tage später verkündete das Weiße Haus Pläne für eine ähnliche Einrichtung, wobei beide eine Schlüsselrolle bei der Prüfung fortschrittlicher KI-Modelle spielen sollen. In seiner Rede auf dem Gipfel in Bletchley sagte Sunak, dass das Vereinigte Königreich zunächst die Fähigkeiten fortgeschrittener Modelle verstehen müsse, bevor es Gesetze zu ihrer Bewältigung einführe.Ein Sprecher des britischen Ministeriums für Wissenschaft, Innovation und Technologie sagte, ein kürzlich veröffentlichtes Weißbuch über KI habe die britischen Finanzaufsichtsbehörden (die Financial Conduct Authority und die Prudential Regulation Authority) als die geeigneten Aufsichtsbehörden für KI und Finanzen bezeichnet. „Sie verstehen die Risiken in ihren Sektoren und sind am besten in der Lage, einen angemessenen Ansatz zur Regulierung von KI zu verfolgen“, so ein Sprecher.
×
Artikel verschenken
Mit einem Digital-Abo des Freitag können Sie pro Monat fünf Artikel verschenken.
Die Texte sind für die Beschenkten kostenlos.
Mehr Infos erhalten Sie
hier.
Aktuell sind Sie nicht eingeloggt.
Wenn Sie diesen Artikel verschenken wollen, müssen Sie sich entweder einloggen oder ein Digital-Abo abschließen.