Der Triumph des Geistes, sich selbst nicht zu begreifen

Künstliche Intelligenz Von der Symbolverarbeitung zu neuronalen Netzen - zwei Seiten wissenschaftlichen Reduktionismus

Im Dezember vergangenen Jahres beschäftigte sich Michael Schäfer auf dieser Seite (Freitag 50/2001) mit der Frage, wie die Neurowissenschaft das Verhältnis von Mensch und Maschine verändert, indem sie den Menschen zur biologischen Maschine erklärt und der Maschine Menschenzüge einschreibt. Eine Nachbardisziplin der Neurowissenschaften ist die Forschung zur Künstlichen Intelligenz (KI), ein Begriff, der 1956 ursprünglich von John McCarthy, dem "Vater" der Programmiersprache LISP, geprägt wurde. Karl Leidlmair zeichnet in diesem Beitrag die beiden Stränge der KI-Forschung - den symbolverarbeitenden Ansatz und den sogenannten Konnektionismus - nach, legt ihre Verwobenheit in die zeitgenössischen Forschungstraditionen frei und zeigt, dass intelligente Systeme, gleich welcher Provenienz, vor wissenschaftlichem Reduktionismus nicht gefeit sind.
In den 1970er Jahren entwickelte der Computerwissenschaftler Josef Weizenbaum ein Programm namens Eliza, das den Dialog eines Therapeuten mit einem Klienten simuliert. Es funktioniert durch den Abgleich von Wortmustern, aus dem plausible Erwiderungen erzeugt werden, aber ohne Verständnis des eingegeben Textes bleiben. Entdeckt das Programm beispielsweise den Satz "Ich habe Probleme mit meiner Mutter", so antwortet es stereotyp "Erzähle mir mehr von Deiner Mutter". Trotz des offensichtlichen Fehlens jeglichen Verständnisses waren einige Psychiater in den USA davon überzeugt, Eliza ließe sich generell in der Psychotherapie als mechanischer Ersatz des Therapeuten einsetzen.

"Eliza" hinter der Couch

Weizenbaum selbst, überrascht von dem offensichtlichen Erfolg seines Programms, berichtet, wie schnell Personen eine emotionale Beziehung zu Eliza herstellten. Seine eigene Sekretärin, die ja die Hintergründe der Entstehung des Programms kannte, bat ihn nach kurzer Zeit, den Raum zu verlassen, während sie den Dialog mit Eliza führte. Weizenbaum erklärt sich den Erfolg seines Programms dadurch, dass Menschen in vielen Gesprächssituationen stereotype Redewendungen verwenden, ohne dabei den Inhalt des Gesagten wirklich zu verstehen. Vor diesem Hintergrund stellt sich die Frage: Ist ein Computerprogramm dazu in der Lage, seine eigenen Ausgabe- und Eingabedaten von selber zu verstehen? Nur in diesem Falle wäre die "Intelligenz" des Programms nicht nur eine von seinem Benutzer zugeschriebene, sondern inhärent im Programm selbst verankert.

Die Turing-Maschine, funktional gewendet

Um diese Frage zu klären, müssen wir auf die historischen Wurzeln der Forschung über Künstliche Intelligenz (KI) zurückgehen. In den frühen 1950er Jahren entstanden zwei verschiedene, kontrovers diskutierte Forschungsparadigmen. Auf der einen Seite wurde Denken interpretiert als Manipulation von Zeichenketten nach formalen Regeln. Dieses Paradigma vereint zwei Traditionen in sich. Zum einen ist es der Funktionalismus, wonach mentale Prozesse unabhängig von ihrer physikalischen Realisierung betrachtet werden können. Mentale Zustände sind definiert über die funktionale Rolle der Eingaben, Ausgaben und internen Zustände eines Systems. Dabei ist es gleichgültig, auf welcher materiellen Basis diese Zustände realisiert sind. So können Silicium-Transistoren die gleiche Aufgabe erfüllen wie die neurobiologischen Prozesse des menschlichen Gehirns.
Zum zweiten war die Erkenntnis, dass das Rechnen mit Zahlen nur ein Sonderfall des Verarbeitens von Zeichen und Symbolen ist, eine wesentliche Voraussetzung dafür, Computer lediglich als Symbolverarbeitungsmaschinen zu betrachten. Dahinter steht der vor allem von dem britischen Logiker Alan Turing formulierte Gedanke der logischen Beweistheorie, wonach Rechenprozesse auf logische Beweisregeln zurückgeführt werden können. Daran anschließend glaubte man, menschliches Denken insgesamt als Verarbeitungsprozess formaler Symbole nach grammatikalisch vorgegebenen Regeln erklären zu können und bemühte sich, dies auf Computerprogramme zu übertragen. Ein praktisches Beispiel dafür war das Mitte der siebziger Jahre in sogenannten Expertensystemen verwirklichte "knowledge engineering".
Expertensysteme setzen sich grob gesprochen aus drei Teilkomponenten zusammen: einem Inferenzmechanismus, einer Wissensdatenbank und einer Erklärungskomponente. Der eigentliche Kern der "Intelligenz" steckt in der Wissensdatenbank. Sie enthält eine Reihe heuristischer Regeln (Beispiel: Wenn der Patient das Symptom x hat, so ist die Diagnose y zu erstellen). Die Expertise wird erstellt, indem das System mit Hilfe des Inferenzmechanismus Schlussfolgerungen aus den relevanten heuristischen Regeln zieht. Fragt man nach, aufgrund welcher Regeln das System zu einer bestimmten Diagnose gekommen ist, so erhält man über die Erklärungskomponente eine Antwort.

Die Blindheit der Expertensysteme

Ein zentrales Problem bei Expertensystemen besteht darin, dass die Regeln durch Befragung eines menschlichen Experten gewonnen werden. Experimente haben nun aber gezeigt, dass sich etwa bei Piloten, wenn sie in der Schulung den Landeanflug erklären sollen, das tatsächliche Können zurückbildet. Ein weiteres praktisches Problem stellt die rigorose Einschränkung des jeweiligen Wirklichkeitsausschnittes dar, der in den Expertensystemen repräsentiert wird. Befragt man nämlich ein Expertensystem nach Problemstellungen, die in der Wissensdatenbank nicht enthalten sind, so kommt es zu einem jähen Abbruch von Wissen in den Randzonen des jeweiligen Wirklichkeitsausschnittes.
Tatsächlich sind Expertensysteme gegenüber dem von ihnen repräsentierten Gegenstandbereich blind, denn erst der Anwender verleiht den automatisch verarbeiteten Symbolen Bedeutung. Dieser Mangel einer ursprünglichen, dem System immanenten Bedeutung hat die Frage aufgeworfen, worin die vom System nach formalen Regeln verarbeiteten Symbole "gründen" müssen, damit sie auch für das System eine ihm selber transparente Bedeutung erhalten.

Konnektionismus: Der Knoten im Netz

Diese Schwierigkeiten des symbolverarbeitenden Ansatzes führen zur zweiten Traditionslinie der KI-Forschung, dem - zumindest in einem Nahverhältnis zu den Neurowissenschaften stehenden sogenannten Konnektionismus. Dieser lässt sich bis zu D. O. Hebb zurückverfolgen, der bereits 1949 Lernen wie folgt definierte: Werden zwei Neuronen gleichzeitig aktiviert, so erhöht diese Aktivierung auch die Verbindung zwischen den beiden Neuronen. Eine erste Anwendung fand diese Idee in Frank Rosenblatts Perceptron, einem Netzwerk von (simulierten) Neuronen zur Mustererkennung; das Projekt lag bis in die achtziger Jahre hinein allerdings brach.
Im Unterschied zu formalen Symbolverarbeitungssystemen steckt das Wissen bei neuronalen Systemen in der Verbindung zwischen einzelnen Verarbeitungseinheiten (simulierten Neuronen) und haben keine lokale Bedeutung - das Wissen eines Netzes entsteht also erst durch ihre Vernetzung. Darüber hinaus ist das Wissen in verteilten Netzen kontextsensitiv: Die Frage, inwiefern ein einzelner Knoten an der Repräsentation eines Begriffs beteiligt ist, lässt sich nur unter Berücksichtigung des Gesamtzustands des Netzes und aller an der Eingabe beteiligten Merkmale erklären.
Ein wichtiger Vorteil gegenüber dem symbolverarbeitenden Ansatz ist das Fehlen eines (menschlichen) Interpreten. Die einzelnen Verarbeitungseinheiten repräsentieren nicht bestimmte Merkmale von Objekten, sondern Bedeutung entsteht erst, wenn eine große Anzahl von Verarbeitungseinheiten aktiviert werden. Da nun diese semantisch nicht interpretierbar sind, steht zwischen der realen Welt und dem System nicht mehr der Mensch als Interpret des Eingabe- und Ausgabemusters. Statt dessen erhält ein neuronales Netz seine Informationen direkt aus der Systemumgebung, in die es eingebettet ist.

Nicht kommunizierbares Wissen

Dieser Vorteil konnektionistischer Systeme verbindet sich allerdings auch mit einem Nachteil: Gerade die Kontextsensitivität, die Tatsache, dass nicht mehr das explizit artikulierte Wissen eines Experten in einem Formalismus kodiert ist, führt dazu, dass das "Wissen" eines neuronalen Netzes nicht kommunizierbar ist. Was das bedeutet, lässt sich an der folgenden Anekdote veranschaulichen: Ein Mann betritt einen Krämerladen und verlangt in einem unverständlichen Kauderwelsch nach einer Ware: "Mmh ... Mmh!". Nachdem alle Verkäufer vergeblich den Sinn seiner Worte zu enträtseln versucht haben, wenden sie sich an einen Sonderling im Keller des Geschäfts, der ein ähnlich unverständliches Kauderwelsch spricht. Dieser wird herbeigeholt und zwischen ihm und dem Käufer entwickelt sich der folgende Dialog. Käufer: "Mmh ... Mmh!". Der Sonderling antwortet: "Mmh ... Mmh!". Nach einer Weile verlässt der Käufer zufrieden mit einem Kilo Bananen das Geschäft. Die Verkäufer fragen daraufhin den Sonderling aus dem Keller. Was hat er eigentlich verlangt? Dieser antwortet: "Mmh ... Mmh!".
Dieses Beispiel soll deutlich machen, dass ein konnektionistisches System problemlos Wissen erwerben und in der Folge davon auch anwenden kann, ohne dass wir als außenstehende Beobachter des Netzes rational nachvollziehen können, wie dieses Wissen entstanden ist. Die Lernfähigkeit, eine weitere zentrale Eigenschaft konnektionistischer Systeme, entsteht erst durch die Änderung der Gewichtung der Verbindungen zwischen den einzelnen Verarbeitungseinheiten. Damit einhergehend zeichnen sich solche Systeme auch durch eine größere Fehlertoleranz aus: ähnlich einem Hologramm lässt sich aus Teilstücken des Systems das ganze System rekonstruieren.
In neuerer Zeit wurden verschiedene Überlegungen angestellt, wie der symbolverarbeitende Ansatz mit dem Konnektionismus zu sogenannten hybriden Systemen zu verbinden sei, um die Stärken der Symbolverarbeitung (die Fähigkeit des Systems, sich auf seine eigenen Zustände zu beziehen) mit denen des Konnektionismus zu erweitern. Wie nun aber der Übergang von der konnektionistischen zur symbolverarbeitenden Ebene zu lösen sei, ist umstritten. Ein interessanter, von Rumelhart und McClelland, zwei Pionieren im Bereich des neueren Konnektionismus, stammender Vorschlag ist, die Entstehung des symbolischen Verstehensgebrauchs durch die Konstruktion externer Symbole und deren nachfolgender Internalisierung durch das neuronale Netz zu erklären. Interessant ist der Vorschlag, weil er auf Ideen der Medientheorie zurückgreift. Danach entsteht abstraktes Denken und die Abspaltung eines Selbst von seiner Umgebung zuallererst über die Einführung der Schrift. Nur über die Einführung der Kulturtechnik "Schrift" und deren Verinnerlichung im menschlichen Denken ist dieser Theorie zufolge der Dualismus von Repräsentation und Repräsentiertem, von Bild und Abgebildetem zu erklären.

Sinnhaftes Verstehen als metaphorischer Rest

Bei derlei Spekulationen darf allerdings nicht vergessen werden, dass die symbolverarbeitende Komponente in einem hybriden System lediglich in einem eingeschränkten Sinne eine eigenständige Beschreibungsebene darstellt. Sie ist nämlich realisiert in einem Netzwerk, das, weil es keinen außenstehenden Interpreten gibt, zu seiner Umgebung nur in einer physikalischen Beziehung steht. Gemeint ist damit, dass sowohl die Eingabedaten als auch die Ausgabedaten keine Gegenstände repräsentieren, sondern lediglich Reaktionen auf bestimmte Reize sind. Damit impliziert aber selbst ein hybrides System einen eliministischen Materialismus, der die Ebene des menschlichen Verstehens von Bedeutungen ignoriert.
Bestätigt wird diese Interpretation durch ein konnektionistisches Menschenbild, das den blinden Selektions- und Reproduktionstheoremen des Darwinismus nicht nachsteht. Gestützt neuerdings durch den Reduktionismus der Gentechnik und seiner Anwendungsbereiche wird menschliche Kognition nur als abgeleiteter Akt sinnhaften Verstehens interpretiert, der letztlich eliminierbar und nur noch "metaphorisch" ist. Menschliches Verstehen gründet aus dieser Perspektive in der natürlichen Selektion der Arten, einer - wie es der Kognitionswissenschaftler Daniel Dennett bezeichnet - blinden Ursache für unser einsichtsvolles Vermögen, Gegenstände repräsentieren zu können. Diese reduktionistische Sicht menschlichen Verstehens ist allerdings in der Bedeutungstheorie nicht unumstritten. Vielleicht ist es, um ein Resumee zu ziehen, der größte Triumph des menschlichen Geistes, dass er sich selbst nicht begreift.

Dr. Karl Leidlmair ist Professor für Psychologie an der Universität Innsbruck und arbeitet schwerpunktmäßig zu Philosophie der Technik, Künstliche Intelligenz und Technikethik. Zuletzt schrieb er im Freitag über "Sex im Netz".

Liebe Leserin, lieber Leser,

dieser Artikel ist für Sie kostenlos.
Unabhängiger und kritischer Journalismus braucht aber auch in diesen Zeiten Unterstützung. Wir freuen uns daher, wenn Sie den Freitag hier abonnieren oder 3 Ausgaben gratis testen. Dafür bedanken wir uns schon jetzt bei Ihnen!

Ihre Freitag-Redaktion

00:00 15.02.2002

Ausgabe 15/2021

Hier finden Sie alle Inhalte der aktuellen Ausgabe

3 Ausgaben kostenlos lesen

Der Freitag ist eine Wochenzeitung, die für mutigen und unabhängigen Journalismus steht. Wir berichten über Politik, Kultur und Wirtschaft anders als die übrigen Medien. Überzeugen Sie sich selbst, und testen Sie den Freitag 3 Wochen kostenlos!

Kommentare