Die Maschine, die es gut mit Ihnen meint

Interaktivität und Intelligenz Ob Computer oder Kaffeemaschine, der Mensch will die Kontrolle behalten, dabei hätte er vielleicht mehr davon, wenn er sie abgibt

Nichts einfacher als Interaktivität. Wenn man beim ZDF während des Krimis anruft, um abzustimmen, wie es weitergehen soll, wenn man nach Christiansen den Sozialpolitiker im Chat traktiert, wenn man bei der Titanic-DVD kleine Biographien der Schauspieler aufruft, dann ist das alles im besten Marketingdeutsch interaktiv. Also wenn man irgendwas drücken kann. Und sei es nur den Lichtschalter.

Was will uns dieses Wort aber eigentlich sagen: Interaktivität? Doch, dass es um Unternehmungen in einem Dazwischen geht, wobei offen bleibt, ob diese Aktivität für sich steht oder ob sie Wirkungen auf die Seiten hat, zwischen denen sie stattfindet. Nur monodirektional wird sie nicht sein, denn dann würde sie ihr "Inter" verlieren und zu einer bloßen Aktion werden.

Aber wenn wir ehrlich sind, meinen wir genau das, wenn wir von Interaktivität sprechen. Den Grad an Interaktivität einer Software messen wir daran, wie gut wir mit ihr auf die Maschine einwirken können und wie wenig uns die Maschine mit ihren Eigentümlichkeiten dabei im Wege steht. Unser Bild vom Computer ist immer noch das von Ada Lovelace im 19. Jahrhundert, die sagte: "Die Analytische Maschine erhebt keinen Anspruch darauf, schöpferisch tätig zu sein. Sie kann das ausführen, was wir ihr aufzutragen verstehen." Und wenn sie doch schöpferisch tätig wird in ihren unverständlichen Fehlermeldungen, Aufhängern, Abstürzen oder sogar Ergebnissen, dann muss diese Natur unter die Oberfläche gekehrt werden, wo man sie nicht mehr sehen kann, unter die Benutzeroberfläche, die noch interaktiver werden muss, damit wir noch aktiver und die Maschine noch reaktiver werden kann.

Tatsächlich müssten wir weniger Angst haben davor, dass eines Tages die unterjochten Maschinen sich wie in der Matrix-Trilogie gegen uns, ihre Unterdrücker auflehnen, um uns in ein Wachkoma zu schicken und auszusaugen, so wie wir das mit ihnen machen. Das wäre dann doch zu anthropomorph gedacht und nur für eine klassische Heldenerzählung geeignet. Nein, wir müssten uns eigentlich viel mehr davor fürchten, dass eine Rebellion der Maschinen gar nicht mehr nötig wäre, weil wir im Bestreben, sie zu beherrschen, uns selbst in ein Wachkoma schicken.

1950 warf der Mathematiker Alan Turing in der Zeitschrift Mind die Frage auf, ob Maschinen denken können. Es ging ihm dabei nicht darum, ob es gelingen könnte, das menschliche Gehirn perfekt nachzubauen. Sondern darum, ob eine Maschine uns so begegnen könnte, dass wir den Eindruck bekämen, es mit einem intelligenten Wesen zu tun zu haben. Denn nichts anderes passiert uns, wenn wir Katzen, Hunden und, wenn wir ehrlich sind, anderen Menschen begegnen. Nur aus ihrem Verhalten und ihren Reaktionen auf uns können wir erkennen, dass sie Intelligenz besitzen. In ihren aufgeschnittenen Gehirnen wird man es nicht finden, dort wird nun schon seit Jahrhunderten beinahe vergeblich nach den Grundprinzipien von Intelligenz gesucht.

Turings inzwischen berühmte Versuchsanordnung sieht vor, dass ein Mensch in einem Raum vor einem Monitor sitzt und schriftlich Kontakt mit einer Maschine oder einem Mensch in einem anderen Raum hat. Er muss durch Fragen herausfinden, mit was für einem Gegenüber er es zu tun hat. Würde er nach fünf Minuten noch nicht genau sagen können, ob nun ein Mensch oder eine Maschine seine Fragen beantwortet, dann hätte die Maschine diesen Turing-Test bestanden, man könnte ihr also die Fähigkeit zusprechen, zu denken.

Es ist bemerkenswert, dass Turing die Intelligenz einer Maschine an ihrer Fähigkeit zur Reaktion misst und nicht an ihren Aktionen. In dem halben Jahrhundert, das nach der Veröffentlichung dieses Aufsatzes vergangen ist, hat man es leider umgekehrt gemacht. Wenn wir von Computern reden, dann geht es meistens um deren "Leistungsfähigkeit", um Megahertz und Megabyte. Geräte wie Videorekorder, Handys und sogar Backöfen werden danach bewertet, wie viele Funktionen sie anbieten. Und die Kommunikation zwischen uns und diesen Geräten ist einzig darauf ausgerichtet, wie einfach und wie schnell man jede dieser Funktionen abrufen kann. Benutzeroberflächen, Interfaces werden seit Jahrzehnten nach dieser Prämisse gestaltet. Jede Funktion soll einzeln ansteuerbar sein; und je mehr es davon gibt, desto besser.

Zwangsläufig musste man beim "Menü" landen, um diesen Funktionszugriff zu regeln. War das Command-Line-Interface noch wie eine Vorratskammer, die mit Grundnahrungsmitteln bestückt war, und die von einem geschulten Anwender genutzt werden konnten, um in immer neuen Zusammenstellungen unendlich viele verschiedene Gerichte zuzubereiten, so wurde das graphische Interface zum Restaurantbesuch. Es bietet fertige Zusammenstellungen an, die man entweder annehmen oder ignorieren kann. Um diese Tatsache zu verschleiern, wurden die Menüs immer größer. Die schiere Menge an Auswahlmöglichkeiten suggeriert, dass man einen riesigen Mehrwert bekommt, wenn man hier speist.

Tatsächlich isst man aber nicht ganze Speisekarten, sondern immer nur einzelne Speisen. Und interessanterweise beinahe immer dann doch das Alt-Bewährte. Das umfangreiche Menü wird ausgiebig studiert, bis man dem Kellner gesteht, dass es wieder Spaghetti Carbonara sein sollen. Ähnlich bei Computerprogrammen. Alle zwei Jahre schafft man sich die neueste Version von Word an, weil sie noch mehr Funktionen hat, und jedes Mal benutzt man in 98 Prozent aller Fälle doch nur "Öffnen", "Schließen", "Speichern" und "Speichern unter". Theoretisch könnte man also seit zehn Jahren auch mit dem einfachen Wordpad-Programm arbeiten.

Statt dessen kämpft man sich jedes Mal wieder durch das tagelange Einrichten der neuen Software. Um am Ende die selben acht Schaltflächen, die man in den Jahren zuvor hatte, wieder an genau derselben Stelle zu haben. Ist das ein Zeichen von Intelligenz? Im Turingschen Sinne ja. Allerdings nicht auf Seiten des Computers. Denn nicht er reagiert auf uns, sondern wir auf ihn. Er stellt uns eine Adaptionsaufgabe und wir arbeiten uns durch das Dickicht, bis es wieder so licht ist, dass wir unsere alten Wege vor uns haben. Wie schön wäre es, wenn die Maschine einmal so auf uns einginge! Wenn sie sich ein bisschen mit uns beschäftigen könnte, um danach eine Benutzeroberfläche zu präsentieren, die genau unseren speziellen Bedürfnissen entspräche!

Der Traum vom Computer war einst der von einer Arbeitserleichterung und einer Erweiterung des menschlichen Geistes. Eine klassische Utopie wie sie etwa Vannevar Bush in seinem Aufsatz As we may think entwickelt: Im Zuge der enormen Wissensexplosion - und das schreibt Bush im Jahr 1945! - sei es dem Menschen unmöglich geworden, aus den vorhandenen Informationen neue Schlüsse zu ziehen. "Es mag Millionen von vorzüglichen Gedanken geben, [...] aber wenn der Forscher in all seinen Bemühungen nur einen von ihnen pro Woche aufspüren kann, so werden seine Schlussfolgerungen nicht mit den Zeitläuften mithalten können."

Das Hauptproblem liegt seiner Meinung nach in der "Künstlichkeit der Indizierungssysteme, die es erschwert, Zugang zu den Aufzeichnungen zu bekommen. Egal, welche Daten man in ein Archiv aufnimmt, sie werden alphabetisch oder numerisch abgelegt, und die Information wird (wenn überhaupt) wiedergefunden, indem man Unterabteilung für Unterabteilung durchgeht." Das widerspricht aber der Funktionsweise des menschlichen Geistes, der mit Assoziationen arbeitet. In Bushs Worten: "Kaum hat er sich eine Information beschafft, greift er schon auf die nächste zu, die durch Gedankenassoziation nahegelegt wird, entsprechend einem komplizierten Gewebe von Pfaden, das über die Hirnzellen verläuft." Und jetzt beginnt Bush seine Utopie zu entwerfen, die den Computer als das Werkzeug zu einer Vermittlung zwischen dem Mensch und seinem Wissen einsetzt. "Die Auswahl durch Assoziation - und nicht durch Indizierung - müsste hierzu mechanisiert werden."

Was Vannevar Bush zum Jules Verne der Computerliteratur macht, ist sein Entwurf eines neuen Arbeitsgerätes, dem sogenannten Memex: "Ein Memex ist ein Gerät, in dem ein Individuum all seine Bücher, Akten und seine gesamte Kommunikation speichert und das so konstruiert ist, dass es mit außerordentlicher Geschwindigkeit und Flexibilität benutzt werden kann. Es stellt eine vergrößerte persönliche Ergänzung zum Gedächtnis dar. [...] Oben befinden sich schräge durchscheinende Schirme, auf die das Material bequem lesbar projiziert werden kann. Es gibt eine Tastatur und eine Reihe von Knöpfen und Hebeln. Ansonsten sieht es wie ein gewöhnlicher Schreibtisch aus."

Dieses Desktop-Design sollte hauptsächlich einem Zweck dienen, dem "Verfahren, von jeder beliebigen Information - sei es Buch, Artikel, Fotografie, Notiz - sofort und automatisch auf eine andere zu verweisen." So wie Vernes Nautilus ihre Verwirklichung in den kriegsentscheidenden U-Booten fand, so scheinen auch Bushs Visionen reale Gestalt in Form von Festplatte, Windows-Betriebssystem, CD-Rom, HTML-Seiten, Internet, E-Mail und Multimedia angenommen zu haben.

Allerdings sind die Probleme nicht gelöst worden. Computer und Internet wurden zu einer komprimierten Form der Bibliothek, mit aber genau denselben Problemen, die in As we may think geschildert worden sind. Der eigentlichen Konsequenz aus der Unterscheidung zwischen assoziativer, kreativer Intelligenz von Menschen und repetitiver Intelligenz von Maschinen wird ausgewichen. Die Fähigkeit des Computers wird lediglich dazu genutzt, die Assoziationen des Menschen zu verwalten. Intelligent erscheint uns die Maschine deshalb, weil sie unsere eigene Intelligenz widerspiegelt. Doch wie Narziss am See machen wir auf diese Weise keine Fortschritte.

Im Turingschen Sinne müsste es darum gehen, dass unsere Reaktionen auf den Computer nutzbar gemacht werden, dass er mit uns einen Turing-Test durchführen darf, um unsere Intelligenz festzustellen. Nicht der Mensch muss besseren Zugriff auf das Wissen erhalten, um besseres Wissen gewinnen zu können, sondern die Maschine muss besser auf den Menschen zugreifen können, um mit dem Wissen so zu operieren, dass es für den Menschen denkgerecht serviert werden kann. Das wäre dann nicht mehr die auf sich selbst zurückgeworfene Interaktivität, sondern es wäre eine sich fortsetzende Interreaktivität.

Einige Beispiele für solche Interreaktivität lassen sich jetzt schon finden. Etwa die Empfehlungen auf den Seiten des Online-Buchhändlers Amazon. "Kunden, die dieses Buch gekauft haben, haben auch folgende Bücher gekauft" kann man dort lesen, wenn man einen bestimmten Titel ausgewählt hat, und diese Vernetzung von Kaufverhalten erweist sich als erstaunlich relevant. Immer wieder wird man so auf Bücher aufmerksam gemacht, die man sonst nicht gefunden hätte, weil man gar nicht wusste, dass man nach ihnen suchen sollte. Indem das subjektive Einzelinteresse und -verhalten völlig mechanisch mit dem von Tausenden anderer Kunden in Beziehung gesetzt wird, berechnet sich etwas, das wieder von subjektivem Interesse sein kann. Die Reaktion des Computers auf unsere Reaktionen erzeugt Spuren und Pfade, auf denen dann viele Einzelne gehen können.

Auch ein großes Open-Source-Projekt wie das Betriebssystem Linux ließe sich als ein solches interreaktives Produkt begreifen. Indem die gesamte Programmstruktur offengelegt wurde und alle aufgefordert waren, das Programm zu erweitern und zu verbessern, hat sich in den letzten Jahren eine echte Konkurrenz zum Monopolisten Microsoft entwickelt. Hacker reagierten auf das Programm, das wiederum auf die Hacker reagierte und neue Reaktionen provozierte. So entstand ein ständig wachsendes, sich ständig optimierendes Programm, bei dem sich nicht mehr unterscheiden lässt, wer wen programmiert: die Nutzer den Computer oder der Computer die Nutzer. Mit einigem Recht kann man sagen, dass Linux keine Ware im industriellen Sinn ist, sondern manifestierte Kommunikation.

Und so führt der Verzicht auf Kontrolle des Computers und des Wissens dazu, dass eine umfassendere Ermächtigung der Nutzer erfolgt. Manuel Castells Wort vom "sich selbst programmierenden Menschen" des Informationszeitalters sollte den flexiblen und sich ständig neu orientierenden Arbeiter beschreiben, es lässt sich aber genauso auf diesen Kommunikationsfluss münzen. Irgendwann werden wir uns nicht mehr durch Menüstrukturen kämpfen müssen, die der reduzierten assoziativen Logik einzelner Programmierer folgen, wir werden keine Interfaces mehr bedienen und werden nicht mehr interaktiv sein müssen. Dann nämlich, wenn wir den Computer auf uns reagieren lassen.

00:00 09.01.2004

Ihnen gefällt der Artikel?

Dann lesen Sie noch mehr Beiträge und testen Sie die nächsten drei Ausgaben des Freitag kostenlos:

Abobreaker Startseite 3NOP plus Verl. ZU Baumwolltasche

Kommentare