Mensch versus Maschine: Alles, was man über Künstliche Intelligenz wissen muss
Fragen und Antworten KI-Systeme können immer mehr und sind allgegenwärtig. Wie viel Sorgen sollten wir uns darüber machen, was die Zukunft in einer „Roboter-Welt“ für die Menschheit bereithält?
Wo könnten mir bald mehr Chatbots und KI-Inhalte begegnen?
Fast alle Bereiche, in denen Sie derzeit mit anderen Menschen interagieren, werden eifrig auf eine KI-gestützte Umstellung hin geprüft. Im Kundenservice sind Chatbots nicht neu. Da sie aber leistungsfähiger geworden sind, ist damit zu rechnen, dass sie häufiger eingesetzt und immer komplexere Aufgaben übernehmen werden. Stimmsynthese- und Erkennungstechnologie machen es möglich, dass die Chatbots nicht nur Telefonanrufe beantworten, sondern Kunden sogar anrufen.
Die Systeme werden zudem die preisgünstige Produktion von Inhalten im ganzen Internet antreiben. Schon jetzt werden sie genutzt, um „Content Farm“-Nachrichtenseiten zu erstellen (ein Geschäftsmodell, bei dem durch Such
#228;ftsmodell, bei dem durch Suchmaschinenoptimierung Texte produziert werden, die in den Suchmaschinen weit oben angezeigt werden). Eine aktuelle Studie fand fast 50 Nachrichten-Webseiten, die offensichtlich KI-generiertes Material veröffentlichten, das selten als solches markiert war.Und dann sind da die weniger offensichtlichen Fälle. Die Systeme können genutzt werden, um Daten zu markieren und zu organisieren, einfache Programme schreiben zu helfen, Arbeits-E-Mails zusammenzufassen und zu generieren. Bei allem, was mit Text zu tun hat, wird jemand versuchen, die Aufgabe einem Chatbot zu übergeben.Was sind die Unterschiede zwischen den KI-Chatbots ChatGPT, Google Bard und Bing?Alle drei Systeme basieren auf der gleichen Grundlage, einer KI-Technologie, die als „großes Sprachmodell“ oder LLM bezeichnet wird. In der Anwendung gibt es jedoch kleine Unterschiede, die zu einer großen Bandbreite an Ergebnissen führen können. Die Grundlage von ChatGPT ist GPT LLM von OpenAI, optimiert durch ein System, das als „Reinforcement-learned Human Feedback“ (RLHF) bezeichnet wird. In riesigen „Call-Centern“, in denen Mitarbeiter:innen bei einem Stundenlohn von manchmal nur zwei Dollar arbeiten, lässt das Unternehmen menschliche Trainer Millionen von Gesprächen im Chat-Stil mit GPT führen und bewerten. Ziel ist, der KI beizubringen, was eine gute und was eine schlechte Antwort ist. Allerdings kann ChatGPT bis Version 3.5 die Antwort auf eine Frage nur wissen, wenn sie bereits existierte, als die Trainingsdaten festgelegt wurden, also etwa im Jahr 2021.Derweil hat Microsoft nur wenig durchblicken lassen, wie der Bing-Chatbot unter der Oberfläche funktioniert. Er scheint jedoch einen einfacheren Ansatz zu verfolgen, der als „Prompting“ bezeichnet wird, deutsch etwa: Eingabeaufforderung. Der Bot, der ebenfalls auf OpenAIs GPT aufbaut, erhält vor jedem Gespräch unsichtbar dieselben Textanweisungen. Sie erinnern ihn beispielsweise daran, dass er ein hilfsbereiter Assistent ist, dass von ihm Höflichkeit und Freundlichkeit erwartet wird und dass er keine Fragen beantworten soll, die gefährlich sein könnten. Bing hat zudem ein Ass im Ärmel: eine Live-Internetverbindung, die es ermöglicht, Antworten um weitere Informationen zu ergänzen. Der Ansatz ist preisgünstig und meistens effektiv, aber er macht das System auch für „Prompt Injection“-Angriffe anfällig, die die KI dazu bringen, ihre eigenen Regeln zu ignorieren und stattdessen neue Regeln anzuwenden. Manchmal kann eine „Prompt injection“ auch von der Information aus dem Internet ausgehen, die Bing zu lesen versucht, um Fragen zu beantworten.Googles Chatbot Bard liegt irgendwo zwischen den beiden. Der Bot basiert auf dem firmeneigenen Palm-System, das wiederum mit dem gleichen RLHF-System wie ChatGPT optimiert wird. Aber wie Bing kann Bard zusätzlich im Internet Informationen suchen und Live-Daten abrufen, um sein Wissen auf den neuesten Stand zu bringen.Werden die KIs noch leistungsstärker und zu mehr fähig sein? Und wie schnell wird das gehen?Genau wissen wir das nicht, aber wahrscheinlich werden sie mehr Leistung bringen. Einer der wichtigsten Durchbrüche in den vergangenen Jahren war der Sieg von Quantität über Qualität: Je mehr Rechenleistung und Daten eine KI zur Verfügung hat, desto besser ist sie. Es ist also weniger wichtig, nur gute Daten bereitzustellen, Hauptsache viele. Und damit stehen wir erst am Anfang: KI-Systeme wurden zwar mit einer großen Menge öffentlicher Texte aus dem Internet gefüttert, aber bei Weitem nicht mit allen privaten Daten, über die ein Unternehmen wie Google verfügt. Zudem ist es auch eine Frage des Geldes: Die Kosten für die Rechenleistung eines Systems wie GPT-4 beliefen sich auf etwa 100 Millionen Dollar. Wir wissen nicht, was passiert, wenn Milliarden zur Verfügung gestellt würden.Dabei könnte KI auch an ihre Grenzen stoßen. Wenn mehr Daten immer weniger Nutzen bringen und keine weiteren Quellen zur Verfügung stehen, könnte es schwierig werden, die Systeme deutlich über den heutigen Stand hinaus zu verbessern. Es könnte aber auch einen „Schwungradeffekt“ geben, bei dem KI-Systeme genutzt werden können, um KI-Systeme besser zu machen. Es gibt einige Ansätze, eine KI mit Hilfe von einer anderen KI generierten Daten zu verbessern – und sie scheinen zu funktionieren.Die Verwendungszwecke klingen recht harmlos. Warum sprechen Experten im Zusammenhang mit KI vom Ende der Menschheit oder Gesellschaft, wie wir sie kennen?!Wir wissen nicht, was passiert, wenn wir ein KI-System schaffen, das in allen Anwendungsbereichen schlauer als der Mensch ist. Vielleicht entscheidet eine zukünftige ChatGPT-Version zum Beispiel, der beste Weg, Leuten bei der Beantwortung einer Frage zu helfen, ist, sie langsam dahingehend zu manipulieren, dass sie der KI die Führungsrolle übertragen. Oder eine autoritäre Regierung gibt einem Schlachtfeld-Robotiksystem, das einen Krieg gewinnen soll, zu viel Macht. Das System kommt zu dem Ergebnis, dass zur Erfüllung seiner Aufgabe als Erstes ein Putsch im eigenen Land notwendig ist. „Man muss sich etwas vorstellen, das intelligenter ist als wir, und zwar in einem Ausmaß wie wir im Vergleich zu einem Frosch“, erklärt Geoffrey Hinton, einer der Erfinder des neuronalen Netzwerks.Kann ich den Inhalten vertrauen, die ein Chatbot produziert?Sowohl ChatGPT als auch Bing und Bard haben faktische Fehler produziert oder „Halluzinationen“, wie sie im Branchenjargon genannt werden. Beispielsweise beschuldigte ChatGPT fälschlich einen US-amerikanischen Jura-Professor der sexuellen Belästigung und zitierte einen nicht existierenden Bericht der Zeitung Washington Post. Ein anderes Beispiel ist ein Werbevideo für Bard, in der eine fehlerhafte Antwort auf eine Frage nach dem James Webb Space Telescope vorkam. Chatbots werden mit astronomisch hohen Datenmengen aus dem Internet trainiert. Ähnlich wie bei der Texterkennung erstellen sie ein Modell, um das wahrscheinlichste Wort oder den wahrscheinlichsten Satz vorhersagen zu können, der nach der Eingabe des Nutzers folgen könnte. Das Ergebnis können faktische Fehler sein, aber die plausibel wirkenden Antworten können dazu verleiten, sie für 100 Prozent richtig zu halten.Es bestehen auch Bedenken, dass die Technologie hinter Chatbots dazu genutzt werden könnte, in einem bedeutenden Ausmaß Falschinformationen zu verbreiten. Während des Weltwirtschaftsforums in Genf Anfang Mai warnte Microsofts Chefökonom Michael Schwarz, dass KI „in den Händen von Spammern sehr viel Schaden anrichten könnte, unter anderem bei Wahlen“.Wie kann ich wissen, ob KI meinen Job gefährdet?Achten Sie darauf, was die Führungskräfte der Tech-Unternehmen sagen. Kürzlich danach gefragt, welche Arbeitsplätze KI beeinträchtigt, befand Google-Chef Sundar Pichai: „Wissensarbeiter:innen.“ Das bedeutet unter anderem Autor:innen, Buchhalter:innen, Architekt:innen, Rechtsanwält:innen und Software-Ingenieur:innen. Für OpenAI-CEO Sam Altman ist der Kundenservice ein Bereich, in dem es „relativ bald viel weniger Arbeitsplätze“ geben wird. Und der Chef des Technologiekonzerns IBM, Arvind Krishna, rechnet damit, dass in den nächsten fünf Jahren fast 8.000 Back-Office-Jobs durch KI ersetzt werden, etwa im Personalwesen. Anfang Mai fielen die Aktien von Unternehmen für digitale Lernangebote, nachdem der US-amerikanische Online-Nachhilfe-Anbieter Chegg gewarnt hatte, dass ChatGPT das Wachstum der Kundenzahl des Unternehmens beeinträchtige.Ebenfalls Anfang Mai veröffentlichte das Weltwirtschaftsforum die Ergebnisse einer Befragung von 800 Unternehmen mit insgesamt 11,3 Millionen Mitarbeiter:innen. Ein Viertel der Unternehmen erwartet demnach, dass durch den Einsatz von KI Arbeitsplätze wegfallen. 50 Prozent dagegen gingen davon aus, dass mehr Jobs entstehen.Wer wird mit KI Geld verdienen?Die großen Technologieunternehmen an der Spitze der KI-Entwicklung sind das in San Francisco ansässige Unternehmen OpenAI, die Google-Muttergesellschaft Alphabet und Microsoft, das auch ein Investor von OpenAI ist. Zu den führenden KI-Start-ups gehören die britische Firma Stability AI, die hinter dem Image-Generator Stable Diffusion steht, sowie die Firma Anthropic. Derzeit liegt der private Sektor im Entwicklungsrennen vorn und ist auch in der führenden Position, wenn es darum geht, finanziell zu profitieren. Laut dem jährlichen KI-Index-Bericht hat die Technologiebranche im vergangenen Jahr 32 bedeutende Machine-Learning-Modelle entwickelt, verglichen mit drei Modellen, die aus dem akademischen Bereich kommen.Was die Unternehmen betrifft, die mit der Anwendung generativer KI (Chatbots, Ton- und Bildgeneratoren, die als Reaktion auf menschliche Aufforderungen plausible Texte, Bilder und Töne erzeugen) Geld verdienen werden, so könnte die Entwicklung von Open-Source-KI-Modellen potenzielle Gewinne für die breitere Wirtschaft eröffnen.Der Einsatz von generativer KI klingt teilweise gefährlich; wieso wird sie der Öffentlichkeit ohne Regulierung zugänglich gemacht?Die jüngste Geschichte der Tech-Regulierung sieht so aus, dass Regierungen und Regulierungsbehörden erst eifrig tätig werden, wenn die Technologie bereits entfesselt ist. Beispielsweise ist die britische Regierung fast zwanzig Jahre nach dem Start von Facebook erst jetzt kurz davor, ein Online-Sicherheits-Gesetz einzuführen, das darauf abzielt, die von den sozialen Medien ausgehenden Gefahren einzudämmen.Das Gleiche passiert bei der KI. Anfang Mai verkündete die US-Regierung Maßnahmen aufgrund der Bedenken wegen einer unkontrollierten KI-Entwicklung, aber sie allein werden den KI-Aufrüstungsrausch nicht stoppen. Die britische Wettbewerbsaufsichtsbehörde hat eine Untersuchung des Sektors eingeleitet, wobei sie erst im September erste Ergebnisse vorlegen wird. Auch das EU-Parlament wird über ein KI-Gesetz abstimmen, aber danach werden die Verhandlungen über die Ausgestaltung der Rechtsvorschriften fortgesetzt.In der Zwischenzeit kommen die offenkundigsten Forderungen nach Zurückhaltung von KI-Fachleuten. Im März gehörte Tesla-Chef und OpenAI-Mitbegründer Elon Musk zu den Unterzeichner:innen eines offenen Briefes, in dem zu einer Pause bei der Entwicklung großer KI-Projekte aufgerufen wird. Unterdessen forderte Pichai, der nach eigenen Angaben wegen des Tempos der KI-Entwicklung schlecht schläft, eine globale Regulierung der Technologie ähnlich wie bei Atomwaffen. Bisher aber gibt es keine Anzeichen dafür, dass sich das Entwicklungsrennen verlangsamt oder ein globales Rahmenwerk zu seiner Eindämmung entsteht.
×
Artikel verschenken
Mit einem Digital-Abo des Freitag können Sie pro Monat fünf Artikel verschenken.
Die Texte sind für die Beschenkten kostenlos.
Mehr Infos erhalten Sie
hier.
Aktuell sind Sie nicht eingeloggt.
Wenn Sie diesen Artikel verschenken wollen, müssen Sie sich entweder einloggen oder ein Digital-Abo abschließen.