OPEN AI - der Sündenfall

Meinung. Warum der ChatGPT-Erfinder gehen musste - oder vielleicht doch nicht.

Bei diesem Beitrag handelt es sich um ein Blog aus der Freitag-Community.
Ihre Freitag-Redaktion

Es war einmal. Es war einmal die Idee, ein richtungsweisendes Produkt zu entwickeln, fernab von jener Macht, welche Profit in den Vordergrund stellen muss und jeder Verantwortung über kurz oder lang entsagen wird, es war die Idee, einzig das Wohl der Menschheit im Auge zu halten. Gegründet wurde die Firma ‚Open AI‘ als Ideal einer bewussten Ökonomie – als gewissenhaftes Format, welches der Wirkungsstärke des Produktes entsprechen kann, welches inzwischen unter dem Produktnamen Chat-GPT neue Maßstäbe setzen konnte.

Am 17.11.23 kündigte der Verwaltungsrat dem CEO Sam Altman gleichermaßen überraschend, wie unüberlegt, gleichermaßen spontan, wie naiv. Der Vorwurf der ‚Unehrlichkeit‘ wiegt schwer, wenn dieser Vorwurf denn bewiesen werden kann, was offensichtlich nicht ganz einfach war, denn bisher fehlt dieser Beweis. Der nichtssagende Hinweis, Altman habe das KI-Start-up zu stark kommerzialisieren wollen, genügt da wohl nicht. Schließlich gehört Sam Altmann zu den Firmengründern und war somit einer der Architekten, welche dem Unternehmen verbindliche und strenge Regeln auferlegt hatten. Bereits am 18.11.23 begannen die Verhandlungen zu seiner Rückkehr ins Unternehmen.

Die Firmenstruktur

von Open AI folgt dem Ansatz eines Geschäftsmodells, bei der die gewohnten profit-center-Strukturen einer Non-Profit-Organisation unterstellt werden, welche die Entwicklungs- und Vermarktungs-Strategien unabhängig und selbstbestimmt entscheiden und verantworten kann. OpenAI war 2015 von Sam Altman und Elon Musk mit einer festgelegten Intention gegründet worden: „Die Organisation versucht, eine menschenpositive KI zu entwickeln“, wie Altman damals erklärte. Zentraler Punkt aller Bestrebungen war stets, dass OpenAI eine gemeinnützige Organisation ist, bei der die Gewinnerzielung nur eine untergeordnete Rolle spielen sollte. OpenAI werde „der Welt gehören“, kündigte Altman damals an.

Das Ziel war die Erschaffung einer Maschine, welche unbelastet von menschlichen Neigungen und Vorurteilen dazu dienen sollte, komplexe Probleme zu lösen und eigene Vorschläge zu entwickeln. Eine künstliche Intelligenz also, die dem Idealismus seiner Gründer folgen sollte, als Meilenstein in eine neue und bessere Welt, als neuer Horizont menschlicher Möglichkeiten. Und dabei sollte die Gefahr ausgeschlossen werden, diese Intelligenz allein dem Interesse einer individuellen Gewinnmaximierung zu unterwerfen.

Doch erwies sich der non-profit-Ansatz im Sinne einer Grundlagenforschung als hinderlich, mindestens aber zeitraubend. Immer mächtigere KI-Modelle zu entwickeln, braucht immer teurere Rechenleistung. Es war dann Sam Altman, der sich als CEO eine Alternative erdachte - 2019 gründete er eigene Sub-Strukturen, die Investorengeld hereinbringen sollten, die Kontrolle sollte allerdings beim Verwaltungsrat der Muttergesellschaft verbleiben, so seine offizielle Ankündigung. Die folgende Kooperation mit Microsoft verschaffte OpenAI jede Menge Finanzmittel, aber auch Zugang zu Servern und KI-Chips, soviel zur legitimen Motivation. Es wird sich daher noch zeigen, wie viel seine Worte wert waren.

Von der Idee zur Realität

Denn inzwischen ist Chat-GPT marktreif. Ein Durchbruch, der die Bewertung des Unternehmens in einem Jahr auf fast 100 Milliarden Dollar hochschnellen ließ, zur Freude des Hauptinvestors Microsoft und der Angestellten mit Profit-Optionen. Sie reagierten sofort und sie reagierten empört auf die Absetzung Altmans und brachten den Verwaltungsrat zum Zurückrudern. Und ein Verwaltungsrat, der zurückrudern muss, ist danach ein machtloser Verwaltungsrat, die Naivität der Vorgehensweise hat alle Macht in die Hände von Sam Altmann und dessen Befürworter übertragen. Nun sitzt Altman am längeren Hebel und wenn er zurückkommt, dann womöglich nur mit einer neu erdachten Unternehmensstruktur, in der er selbst und Investoren mehr Macht haben.

Demnach stellt sich die Frage, warum der Verwaltungsrat Sam Altman überhaupt das Vertrauen entziehen wollte. Scheint so, als hätte Altman andere Ziele verfolgt und dies ohne Abstimmung oder Rücksprache zu suchen, wenigstens wären die Vorwürfe der ‚Unehrlichkeit‘ damit zu begründen. Keine Frage, der Verwaltungsrat hat den Sündenfall am Horizont erkannt, den Konflikt zwischen Partikularinteressen von Investoren und dem Postulat des Allgemeinwohls, zu welchem sich das Unternehmen verpflichtet hatte. Ob dieser Verdacht gerechtfertigt war oder nicht, wird sich womöglich nicht mehr klären lassen, es sei denn an einer – nun von Sam Altmann dominierten – weiteren Unternehmensphilosophie. Man darf gespannt sein.

Es wird ein Exempel geboren werden, ob Idealismus und wissenschaftliche Unabhängigkeit noch möglich sind oder nicht, und das ist keine Banalität, sowieso nicht in einer derart sensiblen Geschäftssparte. Man darf noch hoffen.

Die Machtdynamik von Innovation

Chat-GPT hat erneut bewiesen, zu welchen Leistungen die Tech-Visionäre im Silicon Valley unverändert fähig sind, es wird aber auch deutlich, wie naiv solche Visionäre einer Realität ausgesetzt sind, deren Regeln sie weitgehend hilflos ausgeliefert sind oder eben aus sich selbst heraus ausgeliefert werden. Die Idee war wohl durchdacht und weitblickend aufgesetzt, eine bisher unbekannte künstliche Intelligenz unter 'demokratischer' Kontrolle als Mehrwert für die Allgemeinheit.

In einem denkbaren Scheitern dieser Idee spiegelt sich die Ernüchterung, dass kein Produkt geschützt werden kann, sobald es aus der kostenintensiven Entwicklung in eine hinreichend wirkungsstarke Gewinnoption übergeht. Gleichzeitig zeigen sich die Risiken, die Zukunft der KI-Welt einzig den Herstellern oder Investoren überlassen zu wollen. Ein übergeordnetes Regelwerk scheint unabdingbar, wenngleich derzeit realitätsfern.

Öffentlich formuliert wurde dieses Risiko bereits von Elon Musk und Ex-Apple-Ingenieur Steve Wozniak, die eine Aussetzung weiterer KI-Generationen forderten. Denn setze sich die aktuelle Entwicklung ungebremst fort, sind die Risiken nicht bekannt und daher auch nicht beherrschbar. Dabei spielt es keine Rolle, ob das Risiko in der KI selbst oder in der vorgelagerten Zielsetzung der Entwickler zu suchen ist. Andererseits – womöglich dienen Regelwerke auch nur der Selbstlüge, wo diese Regeln nicht beachtet werden wollen, da werden sie auch nicht beachtet werden.

.

.

Dieser Beitrag gibt die Meinung des Autors wieder, nicht notwendigerweise die der Redaktion des Freitag.
Geschrieben von

Zerberus

Europa ist keine Idee, sondern eine Notwendigkeit

Zerberus

Was ist Ihre Meinung?
Diskutieren Sie mit.

Kommentare einblenden