Warum Geoffrey Hinton über die Zukunft der KI besorgt ist

Der Nestor der KI im Gespräch mit Christopher Sorensen von der University of Toronto. "Geoffrey Hinton, der vielen als "Godfather of AI" bekannt ist, sorgte kürzlich weltweit für Schlagzeilen, nachdem er seinen Job bei Google aufgegeben hatte,

Bei diesem Beitrag handelt es sich um ein Blog aus der Freitag-Community.
Ihre Freitag-Redaktion

um freier über die Risiken einer unkontrollierten Entwicklung künstlicher Intelligenz zu sprechen, einschließlich beliebter Tools wie ChatGPT und Googles PaLM. Warum glaubt er, dass digitale Intelligenz einen Vorteil gegenüber biologischer Intelligenz haben könnte? Wie kommt er plötzlich zu dieser Schlussfolgerung, nachdem er ein Leben lang auf diesem Gebiet gearbeitet hat? Und vor allem: Was - wenn überhaupt - kann getan werden, um die Zukunft der Menschheit zu sichern?"

So heißt es im Vorspann des Videos auf Youtube. Das Gespräch ist mit deutschen Untertiteln verfügbar.

In den letzten Wochen und Monaten hat KI eine erhöhte Aufmerksamkeit erfahren. Das lag zum einen an der Freigabe von ChatGPT, aber auch an den Warnungen von Wissenschaftlern und Managern der Branche vor den möglichen Gefahren. In der Diskussion zeigt sich aber immer wieder, so auch hier im Forum, dass breite Kreise der Bevölkerung und auch der Politiker wenig von der Materie verstehen. In dem Gespräch, welches in einzelne Kapitel unterteilt ist, zeigt Hinton vor dem Hintergrund seiner eigenen Erfahrungen sehr detailliert, wie sich KI entwickelt hat, wie sie im Innern funktioniert und warum sie für ihn eine Gefahr darstellt. Er macht das in einer sehr klaren Sprache, die auch für Laien verständlich sein sollte, ohne belehrend zu wirken.

Hinton erklärt die zwei unterschiedlichen Zugänge der KI.

(Sorensen) Zu der Zeit, als Sie das Feld betraten, gab es zwei Denkschulen des maschinellen Lernens in Bezug auf maschinelle Intelligenz: Mainstream und neuronale Netze.

(Hinton) Ich kann das gewissermaßen skizzieren. Es gibt also zwei verschiedene Modelle darüber, was Intelligenz ausmacht, und das eine Modell besagt, dass es dabei um logisches Denken geht, und die Art und Weise, wie wir denken, ist die Verwendung von Logik. Das ist also das Besondere am Menschen. Und was wir tun sollten, ist, die Art von Logik zu verstehen, die wir tatsächlich benutzen. Dazu passt auch die Idee, dass das Wissen, das man speichert, symbolische Ausdrücke sind - ich kann also einen Satz zu Ihnen sagen, und Sie werden ihn irgendwie speichern und später in der Lage sein, daraus auf andere Sätze zu schließen. Aber das, was in Ihrem Kopf ist, ist etwas, das ein bisschen wie Sätze ist, aber aufgeräumt.

Und es gibt ein völlig anderes Modell der Intelligenz, das besagt, dass es nur darum geht, die Verbindungsstärken in einem Netzwerk von Gehirnzellen zu erlernen. Und das ist gut für Dinge wie Wahrnehmung und motorische Kontrolle, nicht für das logische Denken. Das logische Denken hat sich erst viel, viel später entwickelt, und wir sind nicht sehr gut darin. Man lernt es erst, wenn man schon ziemlich alt ist.

Und so ist das Denken eigentlich ein sehr schlechtes Modell der biologischen Intelligenz. Bei der biologischen Intelligenz geht es um Dinge wie die Kontrolle über den Körper und das Sehen von Dingen, und das war ein völlig anderes Paradigma und eine andere Vorstellung davon, was in unserem Kopf vor sich geht - dass es sich nicht um gespeicherte Zeichenfolgen handelt, sondern nur um Verbindungsstärken.

Daraus leitet Hinton unmittelbar ab, warum er sich Sorgen macht, dass die biologische Intelligenz der digitalen unterlegen ist.

[Chatbot] Warum sollten wir uns Sorgen machen, dass die digitale Intelligenz die biologische Intelligenz ablöst?

[Hinton] Weil ich glaube, dass sie viel besser in der Lage ist, das Gelernte an eine ganze Reihe verschiedener digitaler Agenten weiterzugeben, die alle die gleichen Gewichte haben und nur die Aktualisierungen der Gewichte weitergeben, und jetzt können sie 10.000 verschiedene Dinge gleichzeitig lernen. Aber ich glaube auch, dass die digitale Intelligenz wahrscheinlich einen besseren Lernalgorithmus hat als das Gehirn. Alle Versuche, einen Lernalgorithmus im Gehirn zu finden, der so gut funktioniert wie der Backpropagation-Algorithmus in diesen digitalen Intelligenzen - bisher sind diese Versuche gescheitert. Wir haben nichts gefunden, das sich so gut auf sehr große Systeme skalieren lässt wie der Backpropagation-Algorithmus. Ich denke also, dass sie zwei Vorteile haben. Sie haben wahrscheinlich einen besseren Lernalgorithmus, und sie können Wissen viel effizienter weitergeben als biologische Intelligenzen.

Im Anschluss erläutert er die Funktionsweise von Neuronalen Netzen und stellt deren Entwicklung bis in die Gegenwart vor. Breiten Raum nimmt auch die Repräsentation von Worten und Begriffen in diesen Netzen ein. Dazu kann ich an dieser Stelle nur auf das Video verweisen. Mit dem Auftauchen von ChatGPT hat sich für ihn der Zeitraum extrem verkürzt, den er für notwendig hielt, bis KI der menschlichen Intelligenz ebenbürtig bzw. überlegen sein wird. In einer Antwort geht er darauf ein, ob KI bereits ein Verständnis davon hat, worüber sie spricht.

[ChatGPT] Sie sagen, dass Sie von der Innovationsgeschwindigkeit überrascht waren. Was haben Sie gedacht, als Sie zum ersten Mal ein großes Sprachmodell wie ChatGPT verwendet haben? Haben wir Sie überrascht?

(Hinton) Ich bin einfach schockiert, wie ... wie gut es ist. Es gibt also sehr kohärente Antworten und kann kleine Teile des Denkens - noch nicht sehr ausgefeiltes Denken, aber es wird noch viel besser werden. Ich habe ihm zum Beispiel - das ist jetzt GPT-4 - ein Rätsel gestellt, das mir ein Experte für symbolische KI gegeben hatte, der dachte, es wäre nicht in der Lage, es zu lösen. Ich habe das Rätsel viel schwieriger gemacht, und sie konnte es trotzdem lösen.

Das Rätsel geht also so: Die Zimmer in meinem Haus sind entweder weiß, blau oder gelb. Gelbe Farbe verblasst innerhalb eines Jahres zu Weiß. In zwei Jahren möchte ich, dass alle Zimmer weiß sind, was soll ich tun?

Und ein Mensch wird wahrscheinlich sagen, dass man die blauen Zimmer weiß streichen sollte.

GPT-4 hat gesagt, dass man die blauen Räume gelb streichen sollte - aber das geht auch, weil Gelb zu Weiß verblasst.

Und ich wüsste nicht, wie sie das tun könnte, ohne das Problem zu verstehen. Die Vorstellung, dass es sich nur um eine Art Vorhersage des nächsten Wortes handelt und um die Verwendung von Statistiken - in gewisser Weise stimmt das, aber es ist nicht der Sinn von Statistik, den die meisten Menschen verstehen. Es findet aus den Daten heraus, wie man die Bedeutung des Satzes extrahieren kann, und nutzt die Bedeutung des Satzes, um das nächste Wort vorherzusagen. Sie versteht wirklich etwas, und das ist ziemlich schockierend.

Im Anschluss daran äußert sich Hinton zum Entwicklungstempo.

[Chatbot] Es klingt, als ob KI viele wichtige Vorteile bringen wird, aber Sie haben sich besorgt über das derzeitige Innovationstempo geäußert. Warum?

[Hinton] OK, also dachte ich etwa 50 Jahre lang - also 49 Jahre lang -, dass wir digitale Modelle besser machen müssen, damit sie mehr wie das Gehirn funktionieren. Also habe ich mir Dinge angesehen, die das Gehirn tut und die digitalen Modelle nicht tun, wie z. B. die schnelle Änderung der Verbindungsstärke auf eine vorübergehende Art und Weise, und das kann die digitalen Modelle besser machen.

Und erst vor kurzem habe ich erkannt, dass diese digitalen Modelle aufgrund ihres Schwarm-Verhaltens, bei dem, wenn ein Agent etwas lernt, alle anderen Agenten es auch wissen, vielleicht sogar schon besser sind als die biologische Intelligenz. Und so habe ich meine Meinung von der Vorstellung, dass es noch lange dauern wird, bis sie all das können, was das Gehirn kann, auf den Kopf gestellt - dass es 30 bis 50 Jahre dauern wird, bis sie besser sind als wir, wovon ich bis vor kurzem ausging.

Vor ein paar Monaten wurde mir plötzlich klar, dass sie vielleicht schon besser sind als wir. Sie sind nur kleiner, und wenn sie größer werden, sind sie schlauer als wir. Und das war ziemlich beängstigend. Es war ein plötzlicher Meinungsumschwung: Statt in 30 bis 50 Jahren sind es jetzt fünf bis 20 Jahre oder so ähnlich - und deshalb müssen wir jetzt wirklich ernsthaft darüber nachdenken, wie wir mit dem Problem umgehen, dass diese Dinge vielleicht schlauer werden als wir. Es ist eine Zeit großer Unsicherheit. Niemand weiß wirklich, was passieren wird. Vielleicht werden die Dinge ins Stocken geraten und vielleicht werden sie auch nicht schlauer als wir, aber das glaube ich nicht wirklich. Ich glaube, sie werden schlauer sein als wir. Aber wenn sie schlauer werden als wir, können wir vielleicht dafür sorgen, dass sie wohlwollend bleiben und dass sie sich mehr um die Menschen kümmern als um sich selbst, anders als die Menschen. Aber vielleicht auch nicht. Wir müssen also anfangen, sehr intensiv über diese Fragen nachzudenken, und ich bin kein Experte für diese Fragen. Ich bin nur ein Experte für diese lernenden Algorithmen, und mir wurde plötzlich klar, dass diese Superintelligenzen schon bald hier sein könnten - und ich schlage nur Alarm, damit die Menschen auf die Experten hören, die schon lange darüber nachgedacht haben, wie wir verhindern können, dass sie die Kontrolle übernehmen.

Ich möchte, dass die Politiker auf diese Leute hören, anstatt zu sagen: "Ja, ja, das sind so Science-Fiction-Typen, die sind ... das wird nie passieren".

Zum Schluss geht er darauf ein, wie der Gefahr der Machtübernahme durch die KI begegnet werden könnte. Er zeigt, dass sich Google gezwungen sah, seinen eigenen Chatbot, der bis dahin nur intern verwendet werden sollte, öffentlich zu machen, nach dem Microsoft und OpenAI vorgeprescht waren. Die Regierungen dieser Welt haben nach seiner Meinung die Verantwortung, gemeinsam, wie im Kalten Krieg, zur Verhinderung der atomaren Katastrophe zusammenzuarbeiten. Sie müssen die großen Unternehmen verpflichten, mehr Mittel in die Untersuchung möglicher Gefahren und deren Abwehr zu stecken. Ob das ausreichen wird, lässt er offen. Aus meiner Sicht gibt es gibt eine Reihe ganz anderer unmittelbarer Gefahren, die viel zu viel Profit versprechen, als dass sich die Unternehmen bremsen lassen würden:

  • Sie werden Arbeitsplätze vernichten und die Kluft zwischen Arm und Reich vergrößern;
  • Sie machen es unmöglich zu erkennen, ob die Nachrichten gefälscht oder echt sind;
  • Sie werden dazu beitragen, dass sich die Gesellschaft in zwei sich bekriegende Lager spaltet, die einander nicht zuhören und völlig gegensätzliche Ansichten haben;
  • Sie werden Kampfroboter bauen, die darauf ausgelegt sind, Menschen zu töten.

Die Hauptgefahr sieht Hinton in der manipulativen Wirkung, die von KI ausgehen kann. Sie wird das von Menschen lernen und dann auch auf Menschen anwenden. Deshalb wird es ab einem bestimmten Punkt nicht mehr möglich sein, sie einfach abzuschalten.

Hinton hat sich mit seinen 75 Jahren entschlossen, Google zu verlassen, um offen über die Gefahren reden zu können. Für sich persönlich zieht er das Fazit:

(Hinton) OK, ich bin 75 und ich bin an einem Punkt angelangt, an dem ich keine guten Programme mehr schreiben kann, weil ich ständig die Namen der Variablen vergesse, die ich verwende und solche Dinge. Und ich vergesse, wenn ich etwas kopiere und einfüge, das zu ändern, was ich eingefügt habe. Deshalb bin ich beim Programmieren viel langsamer geworden, und das ist sehr ärgerlich. Es ist extrem ärgerlich, wenn man nicht mehr so gut ist wie früher. Und ich habe schon vor langer Zeit beschlossen, dass ich, wenn ich diesen Punkt erreicht habe, Philosoph werden würde. Und so werde ich jetzt Philosoph.

Anmerkung: Die kursiv gesetzten Stellen stammen aus dem englischen Transskript des Videos und wurden mit DeePL übersetzt.

Dieser Beitrag gibt die Meinung des Autors wieder, nicht notwendigerweise die der Redaktion des Freitag.
Geschrieben von

Was ist Ihre Meinung?
Diskutieren Sie mit.

Kommentare einblenden