Wenn Maschinen wissen, was wir wollen Berliner Wissenschaftler testen eine Apparatur, die Gedankenbefehle unseres Gehirns versteht und nebenbei an die Grenze des Bewusstseins führt
Aus der blauen Kappe, die über den Kopf der Testperson gestülpt ist, ragt eine Unmenge an Drähten. Ein bisschen unheimlich sieht es schon aus. Eine lebhafte Phantasie könnte sich an eine filmreife Apparatur zur Gehirnwäsche erinnert fühlen, ginge damit jedoch völlig in die Irre. Die Kabel gehören zu einem medizinischen Untersuchungsgerät, einem Elektroenzephalogramm (EEG), das die Hirnströme des Probanden misst, während er vor einem Computer sitzt und einen Bildschirmcursor in die linke oder rechte Ecke des Monitors bewegt. Mit Maus oder Tastatur wäre diese Aufgabe ein Kinderspiel. Aber hier bewegt sich der Cursor ohne Eingabegerät allein aufgrund von Gedankenbefehlen.
Der direkte Draht des Hirns zum Computer, eine neue Schnit
eue Schnittstelle zwischen Mensch und Maschine, ist das Ziel eines interdisziplinär angelegten Projekts des Fraunhofer-Institutes für Rechnerarchitektur und Softwaretechnik (FIRST) und der Arbeitsgruppe Neurophysik am Campus Benjamin Franklin der Charité Universitätsmedizin in Berlin. Die Informatiker und Neurowissenschaftler tüfteln an einem Brain-Computer Interface (BCI), das es Arm-Amputierten eines nicht allzu fernen Tages ermöglichen könnte, mit einer Prothese wieder nach einem Glas zu greifen oder Querschnittsgelähmten hilft, einen Brief zu schreiben, einen Internet-Browser zu bedienen oder einen Rollstuhl zu steuern."Die besondere Situation bei Querschnittsgelähmten", erläutert Gabriel Curio vom Klinikum Benjamin Franklin, "ist ja, dass die Verbindung zwischen der motorischen Hirnrinde und den Muskeln in der Peripherie gestört ist, weil die Verbindungskabel - um es sehr technisch zu formulieren - im Rückenmark durch eine Verletzung durchtrennt sind. Wenn diese Kabel durchtrennt sind, können immer noch die Befehle im Gehirn gebildet werden. Und das ist der Hauptgedanke: diese intakte Kompetenz der Patienten auszunutzen, um ihnen die Möglichkeit zu geben, über technische Mittel - zum Beispiel ein Brain-Computer Interface - Anwendungen zu steuern."Die Stimme im überfüllten SaalDas Informatikerteam um Professor Klaus-Robert Müller vom Fraunhofer Institut FIRST hat sich die schwierige Aufgabe gestellt, aus den 128 gleichzeitig gemessenen Hirnströmen des EEG das eine Nutzsignal herauszufiltern, das den Willen der Testperson repräsentiert. Da das Gehirn ständig mit der Auswertung von Sinneseindrücken, mit Muskelkontrolle und grundlegenden physiologischen Prozessen beschäftigt ist, erregt ein einzelnes zusätzliches Signal kein großes Aufsehen im Funkgewitter der Neuronen. Es ist wie eine einzelne Stimme in einem überfüllten Saal, die es herauszuhören gilt, während sie von vielen anderen Stimmen überlagert wird. Diese mathematische Meisterleistung der Quellentrennung beherrscht die Software mittlerweile recht zuverlässig.Die "Stimme", nach der die Software sucht, entsteht im Areal des so genannten Motorkortex unserer Großhirnrinde, der für die Bewegungssteuerung zuständig ist. Im Motorkortex sind unsere Körperglieder in kleineren Arealen repräsentiert. Es gibt also Areale für Hände, Füße, Arme und Beine. "Im Prinzip wäre es das Idealste, das einzelne Neuron anzuzapfen, das für eine bestimmte Entscheidung - grob vereinfacht - verantwortlich ist", träumt Müller. "Aber das funktioniert natürlich nicht so einfach."Zumindest nicht, solange die Schädeldecke den direkten Weg ins Gehirn versperrt und das EEG nur ein verschwommenes Echo der Aktivität der 15 Milliarden Neuronen in der Hirnrinde liefert. Noch kann das System deshalb nur grobe Unterscheidungen treffen, wie etwa die Absicht, die linke oder rechte Hand bewegen zu wollen. Aber ob die Hand sich dreht oder beugt, welche Finger an der Bewegung beteiligt sind, dafür ist das System nicht empfindlich genug.Dr. Curio dämpft deshalb überzogene Erwartungen. "Mit der Methodik, die wir verwenden, ist es möglich, auf dieser Modulebene zu arbeiten, das heißt zu sagen, dass das Modul "Hand" aktiviert wird. Nicht möglich ist es mit dieser nicht-invasiven Methode, die Bewegungssteuerung dieser Hand abzubilden. Das ist nur invasiv möglich."Äffisches Spiel mit dem JoystickInvasive Methoden, das bedeutet, den Schädelknochen zu öffnen und Elektroden direkt ins Hirngewebe zu pflanzen, um die Signale dort abzugreifen, wo sie entstehen. Solche Versuche werden in Deutschland zur Zeit nicht unternommen, aber in Amerika gibt es ein halbes Dutzend Forscherteams, die solche Experimente an Tieren durchführen. Aufsehen erregte vor kurzem Miguel Nicolelis von der Duke University in Durham, North Carolina. Sein Team implantierte hauchdünne Elektrodendrähte in die Hirnrinde zweier Affen. Nach der Operation steuerten die Makaken über einen Joystick einen Roboterarm. Dabei wurde ihre Hirnaktivität über die Elektroden aufgezeichnet. Nach einer Lernphase wurde die Verbindung zwischen Joystick und Roboterarm unterbrochen. Obwohl die Affen über den Joystick nun keinen Einfluss mehr auf den Arm hatten, bewegte er sich weiter. Sie kontrollierten ihn mit den Signalen ihres Gehirns, die vom Computer ausgewertet und in die entsprechende Bewegung des Roboters umgesetzt wurden. Zunächst war diese Kontrolle unbewusst, aber irgendwann hörten die Affen von selbst auf, den Joystick zu benutzen. Sie hatten verstanden, dass sie den Arm auch ohne Steuerknüppel bewegen konnten.Nicolelis ist für seine Versuche von Tierschützern kritisiert worden, aber er versichert, die Primaten würden eine bessere medizinische Versorgung erfahren als die meisten Bürger des Landes. Außerdem müsse niemand die Affen zu den Experimenten zwingen. Sie kletterten freiwillig in den Stuhl, weil das Steuern des Roboterarms für sie Spiel sei und keine Arbeit. 2004 sind die ersten Versuche an querschnittsgelähmten Menschen geplant. Der nötige Antrag bei der Food Drug Adminstration läuft und dürfte genehmigt werden. Elektroden-Implantate werden heute schon bei Patienten mit Bewegungsstörungen routinemäßig mit Erfolg eingesetzt und stellen deshalb kein völliges Neuland dar.Nicht-invasive Methoden wie beim Berliner Brain-Computer Interface sind zwar noch nicht so leistungsfähig, aber da sie keine Operationen erfordern, ist ihr Einsatz im Vergleich zu den invasiven Eingriffen risikolos, billiger und viel leichter zu bewerkstelligen. Die Berliner Forscher sind stolz darauf, dass ihr Gerät in Echtzeit funktioniert. Nur 40 Millisekunden, der 25. Teil einer Sekunde, vergehen vom Registrieren der Erregung am EEG bis zur Auswertung durch die Software und der Cursorbewegung am Monitor. Damit funktioniert das System rein technisch schneller als der Mensch, der an seinen vergleichsweise langsamen Muskelapparat gebunden ist. Möglich sind diese Vorahnungen, weil nicht das eigentliche Signal, das die Bewegung initialisiert, ausgewertet wird, sondern das so genannte Bereitschaftspotential, das sich in dem Areal, welches für die Bewegung zuständig ist, schon eine halbe bis ganze Sekunde vor der Durchführung der Bewegung aufbaut.Wie willensfrei ist der Mensch?Das Bereitschaftspotential sorgt bis heute unter Neurophysiologen, Philosophen und Psychologen für einigen Wirbel und reichlich Diskussionsstoff, weil sich Debatten um die Willensfreiheit des Menschen an ihm entzündet haben. Der amerikanische Neurobiologe Benjamin Libet hat in den achtziger Jahren die Ergebnisse von ihm durchgeführter Experimente präsentiert, die den Schluss nahe zu legen scheinen, dass "wir nicht tun, was wir wollen, sondern wollen, was wir tun", wie die griffige und deshalb in diesem Zusammenhang immer wieder zitierte Formel des Münchener Psychologen Wolfgang Prinz es zusammenfasst. Libets Experimente deuten darauf hin, dass der willentliche Entschluss, eine Handlung durchzuführen, nicht die Ursache für die Handlung ist, sondern nur ihre Begleiterscheinung. Die eigentliche Ursache der Handlung liegt tiefer im Vorbewussten. Das Bewusstsein, eine Entscheidung willentlich getroffen zu haben, ist nur eine nachträgliche Hülle, die einer vom Unbewussten eingeleiteten Entscheidung übergestreift wird.Sichtbar wurde dieser Vorgang am gemessenen Bereitschaftspotential. Das Bereitschaftspotential baut sich nicht nur vor der eigentlichen Handlung auf, sondern ist auch schon messbar, bevor dem Probanden seine eigene Entscheidung bewusst wird. Mit anderen Worten: die Entstehung des bewussten Wollens einer Tat liegt irgendwo zwischen dem im Gehirn auftretenden Bereitschaftspotential und der Durchführung der Handlung. Wo genau dieser Punkt liegt, ist unklar. Ob Straftäter für ihre Vergehen überhaupt bestraft werden dürfen, wenn ihre Taten nicht dem bewussten Willen entspringen, sondern von Instanzen des Gehirns eingeleitet werden, die der Kontrolle entzogen sind, ist seitdem eine allen Ernstes diskutierte Frage. Dank der zeitnahen Auflösung, die das Brain-Computer Interface von den Abläufen im Gehirn liefert, wäre es denkbar, dass es quasi als Nebenprodukt einen Beitrag leisten kann, diese neurophysiologischen Abläufe, die bei der Entschlussfindung ablaufen, besser zu verstehen.Bis hierzu weitere Versuchsergebnisse vorliegen, denken die Berliner Wissenschaftler auch an alltagstaugliche Anwendungen außerhalb der Medizin: Die Spieleindustrie könnte ebenfalls ein Interesse daran haben, den Kunden neue Interaktionsmöglichkeiten anzubieten. Zu Übungszwecken hat man am FIRST einfache Varianten bekannter Spiele wie Teletennis, Pacman oder Autorennen programmiert, die sich mittels BCI steuern lassen. Aber obwohl das Berliner Interface im Augenblick für sich in Anspruch nehmen kann, die weitaus schnellste Schnittstelle aller nicht-invasiven Versuche dieser Art zur Verfügung zu stellen, reicht die Geschwindigkeit noch nicht aus, um herkömmliche Eingabearten wie Maus, Tastatur oder Joystick zu ersetzen. 50 Befehle pro Minute konnten bisher als Spitzenwert übertragen werden, die Konkurrenz schafft je nach Ansatz 5-10. Wenig, wenn man damit einen Brief schreiben müsste. Viel, wenn man wegen Lähmung überhaupt nicht schreiben kann. Doch zu Euphorie gibt es auch aus anderen Gründen noch keinen Anlass. "Es gibt Personen, die extrem gut mit dem Brain-Computer Interface umgehen können, andere wiederum gar nicht. Sie sind dann sehr frustriert, weil es bei ihnen nicht funktioniert", sagt Klaus-Robert Müller. "Woran das liegt, wissen wir im Moment noch nicht."In Berlin beginnen jetzt die ersten Versuche mit Amputierten. Sie werden versuchen, mittels BCI einen virtuellen Arm zu steuern. Parallel dazu befindet sich eine neue Technik in der Erprobung, die das Messen der Hirnströme vereinfachen soll. Das Anlegen der EEG-Elektroden ist bis jetzt noch eine aufwändige Prozedur, die eine halbe Stunde Zeit in Anspruch nimmt. Eine Kappe, die sich so einfach und schnell aufsetzen lässt wie eine Schirmmütze, wäre auf lange Sicht wünschenswert. Die nächsten Entwicklungsjahre werden das System so zuverlässig und die Handhabung so einfach wie möglich machen. Dabei haben die Entwickler vor allem eines im Sinn: Die Maschine soll sich dem Menschen anpassen und nicht umgekehrt.
×
Artikel verschenken
Mit einem Digital-Abo des Freitag können Sie pro Monat fünf Artikel verschenken.
Die Texte sind für die Beschenkten kostenlos.
Mehr Infos erhalten Sie
hier.
Aktuell sind Sie nicht eingeloggt.
Wenn Sie diesen Artikel verschenken wollen, müssen Sie sich entweder einloggen oder ein Digital-Abo abschließen.