Was lernt eine KI aus dem hiesigen Forum?

Daten sind die Grundlage für die Entwicklung der Künstlichen Intelligenz. Die Programme können blitzschnell gewaltige Textmengen verarbeiten. Welchen Einfluss hat die Qualität der Diskussion in den Foren? Was trägt jeder Einzelne zum Ergebnis bei?

Bei diesem Beitrag handelt es sich um ein Blog aus der Freitag-Community.
Ihre Freitag-Redaktion

Im Folgenden möchte ich aus einem längeren Interview mit Mo Gawdat zitieren. Er ist ein renommierter Unternehmer, Autor und Verfechter von Glück und Wohlbefinden. Mit einem Hintergrund in den Bereichen Ingenieurwesen und Technologie hat Gawdat seine Karriere der Erforschung der Schnittmenge von Glück und menschlichem Potenzial gewidmet. Als ehemaliger Chief Business Officer bei Google spielte er eine entscheidende Rolle bei der Entwicklung von "Moonshot"-Projekten[1], die darauf abzielen, einige der größten Herausforderungen der Welt zu lösen. Gawdats aufschlussreiches Buch "Solve for Happy" hat zahllose Menschen dazu inspiriert, ihre Sichtweise zu ändern und in den schwierigsten Momenten des Lebens Freude zu finden.

Das Interview ist auf youtube unter dem Titel "AI Expert's Urgent Wake-Up Call: Unveiling the Silent Threat" (Der dringende Weckruf eines KI-Experten: Enthüllung der stillen Bedrohung) zu finden. Die folgende Passage, in der Gawdat beschreibt, wie gegenwärtige KI intelligent wird, wurde von youtube transskribiert und von mir mit DeepL ins Deutsche übertragen.

"Mein Lebenstraum war es, Intelligenz richtig zu programmieren. Wenn man alles kodieren kann, warum sollte man dann nicht auch Intelligenz richtig kodieren. Wir sind jedoch immer wieder gescheitert. Wir haben uns etwas vorgemacht, wir haben Simulationen von Intelligenz geschaffen. Wir haben versucht, Computer so aussehen zu lassen, als wären sie menschlich, aber sie waren nicht menschlich. Auf eine sehr interessante Art und Weise haben wir es um die Jahrhundertwende herum geschafft. Ich glaube, das ist der kritische Punkt, an dem Deep Learning begonnen hat, uns zu zeigen, dass man tatsächlich eine Intelligenz schaffen kann, die autonom ist, die von selbst lernt, die ihr eigenes Verständnis der Welt entwickelt, wenn man so will. Wenn wir dies tun, programmieren wir nicht, um dem Computer zu sagen, was er tun soll, sondern um ihm zu sagen, wie er die dafür erforderliche Intelligenz entwickeln soll. Sehr vereinfacht ausgedrückt: wir haben dem Computer endlose Muster gezeigt und gesehen, dass er intelligent zu werden begann, weil er aufgrund seiner Fähigkeit, neuronale Strukturen und neue neuronale Netze zu schaffen und in diesen Daten Tiefen zu erkennen, die wir mit unserem begrenzten menschlichen Gehirn nicht sehen konnten. Ich glaube, dass mein Sohn oder meine Tochter intelligent wurden, als man ihnen ein Puzzle gab und sie versuchten, das Quadrat durch ein sternförmiges Loch zu stecken und dann scheiterten sie und dann versuchten sie es mit dem Quadrat und scheiterten und dann schließlich auch mit dem Kreis. Das haben sie selbst entwickelt. Niemand ist jemals zu einem Kind gegangen und hat gesagt: Hey, übrigens, dreh das Teil auf die Seite und schau dir den Querschnitt an. Der Querschnitt sah aus wie ein Kreis, der nach einem passenden Muster aussah, und dann haben wir ihn durchgezogen. Auf diese Weise haben wir alle Computer codiert. Neue Computer tun das nicht, wir geben ihnen einfach das Puzzle und sagen: "Versucht es so lange, bis ihr es herausgefunden habt." Deshalb ist der entscheidende Faktor für die tatsächliche Art der Intelligenz und die Intensität oder Qualität der Intelligenz, die in einem Sprachmodell steckt, eher die Daten, auf die es trainiert wurde, die wenigen tausend Zeilen, die der Code sind, der seine Intelligenz informiert, und ich glaube, die Leute wären unglaublich erstaunt, wie wenige Zeilen Code ChatGPT oder Bard steuern, Tausende im wahrsten Sinne des Wortes, ich meine, wenn Sie sich daran erinnern, dass wir in Cobol oder RPG mit 80 000 Zeilen Code programmiert haben, um überhaupt etwas zu erreichen. Es ist erstaunlich, weil es extrapoliert und interpoliert und Schlussfolgerungen zieht. Aber um noch einmal auf den wichtigsten Punkt zurückzukommen: Es tut dies alles nicht im luftleeren Raum, sondern auf der Grundlage all dessen, was wir ihm eingegeben haben. Es lernt von uns, und wie du sagst, sind wir seine Eltern, wir gebären eine neue Form von Intelligenz, und diese Intelligenz wird im Medium des menschlichen Wissens gezüchtet. Wir haben bereits einige Experimente gesehen, wie sich diese Intelligenz auf der Grundlage der Daten, die wir ihnen in den frühen ChatBots geben, positiv oder negativ, aggressiv oder liebevoll entwickeln würde. Wenn man diese ChatBots mit negativen, aggressiven Informationen füttert, fangen sie an, sexistisch und rassistisch zu sein, und man kann es sehen, und wir schalten sie ab, weil wir nicht wissen, wie sie zu diesen Informationen gekommen sind. Das haben sie aus den Daten gelernt, nicht aus der Programmierung."

Was lernt solch eine KI wohl, wenn es in den Foren der hiesigen Community mitliest? Damit möchte ich nicht nur dazu aufrufen, über KI nachzudenken, sondern auch auf die Verantwortung hinweisen, die jeder Einzelne hat. KI lernt aus Daten, die vor allem im Netz verfügbar sind.

[1] Das Wort „Moonshot” ist eine Metapher, die sich vom Apollo-Programm ableitet, mit dem die NASA auf dem Mond landete. Bei der ursprünglichen Mondlandung ging es darum, bis zum Äußersten zu gehen und ein unmögliches Ziel zu erreichen.

Dieser Beitrag gibt die Meinung des Autors wieder, nicht notwendigerweise die der Redaktion des Freitag.
Geschrieben von

Was ist Ihre Meinung?
Diskutieren Sie mit.

Kommentare einblenden