Martin Schlak
Ausgabe 1615 | 29.04.2015 | 06:00 8

Auf Autopilot

Mobilität Noch ist der Mensch der bessere Fahrer. Doch die Computer holen auf. Was passiert, wenn künftig sie das Steuer übernehmen?

Vor der Skyline von San Francisco fährt ein Auto vor, das aus der Zukunft kommt. Sagt zumindest der Hersteller Mercedes. Journalisten dürfen einsteigen, doch dann dreht das Auto ganz von allein einige Runden über ein stillgelegtes Militärgelände, die Reporter lehnen sich im Sessel zurück. Das war vor wenigen Wochen. „Wir haben einen genauen Plan, wie wir von der technischen Machbarkeit der autonomen Autos zur kommerziellen Umsetzbarkeit kommen wollen“, sagt der Daimler-Chef Dieter Zetsche. Die Jahre, in denen noch ein Mensch hinter dem Steuer sitzen muss, scheinen überschaubar.

Wie Mercedes forschen alle großen Autohersteller zum automatisierten Fahren, aber auch Technologiekonzerne wie Google und Apple brüten an Konzepten. Sie alle versprechen für die Zukunft weniger Staus und Unfälle, dafür mehr Bequemlichkeit. In Kalifornien dürfen selbstfahrende Autos seit rund einem halben Jahr getestet werden. In Deutschland hat Verkehrsminister Alexander Dobrindt (CSU) angekündigt, die bayrische Autobahn 9 zu einer Pilotstrecke für automatisiertes Fahren auszubauen. Bereits jetzt sind Tests mit Sondergenehmigung zulässig.

Im Verkehrsministerium tagt außerdem seit Ende 2013 ein Runder Tisch zum automatisierten Fahren – hinter verschlossenen Türen. Die öffentliche Debatte, wann ein Roboterauto als sicher für den Serienbetrieb gilt, hat hingegen noch gar nicht begonnen. Das ist heikel. Die Liste der eingelösten Versprechen ist noch weitgehend leer, die der ungelösten Probleme dagegen lang. Es gibt rechtliche Fragen, moralische und vor allem technische. Die Testberichte der Roboterautos sind daher kaum mehr als PR-Coups für die Unternehmen.

An der Universität in Braunschweig sitzt Professor Markus Maurer an seinem Schreibtisch und überlegt, wie er Roboterautos beibringen kann, links abzubiegen. Maurer forscht seit mehr als 20 Jahren zu dem Thema. „Ich habe weltweit noch kein autonomes Auto an einer Ampelkreuzung ohne grünen Pfeil links abbiegen sehen“, sagt er. Damit das Auto weiß, dass die Straße frei ist, müssten seine Laser heranrasende Motorradfahrer erkennen, und zwar aus 100 Meter Entfernung. „Dafür ist bisher kein Sensor ausgelegt“, sagt Maurer und fügt hinzu: „Die Fahrt über die Autobahn ist aus Ingenieurssicht eine langweilige Geschichte. Die große Herausforderung bleiben Landstraßen und Stadtverkehr.“

Die Ampel als Problem

In der Innenstadt scheitern Roboterautos derzeit noch an einfachen Aufgaben. Die Standorte von Ampeln zum Beispiel müssen Forscher in der Regel vorher ins Bordsystem einspeisen, weil die Bremslichter eines Busses sonst als rote Ampel gewertet würden und den Wagen zum Halt brächten. Auch Bordsteine, Schilder und Verkehrsinseln lesen die Autos besser aus hochaufgelösten Karten ab. Was ein Mensch überblickt, überfordert die Maschine noch.

Wann werden die ersten selbstfahrenden Autos zu kaufen sein, die einen Menschen hinter dem Steuer nicht mehr benötigen? Frühestens im Jahr 2030, sagt Markus Maurer. Ungefähr im Jahr 2030, sagen die Entwickler des futuristischen Mercedes-Autos. Schon im Jahr 2020, sagen die Wissenschaftler hinter dem Google Car.

Wenn Ingenieure in der Vergangenheit voraussagten, bis wann sie etwas entwickelt haben wollen, lagen sie häufig falsch. Sonst würden Menschen schon jahrelang zum Mars fliegen und Computer seit Ende der 70er fehlerfrei übersetzen können. Keiner weiß also, ob die Entwickler mit ihren Prognosen im Fall der Roboterautos richtig liegen.

Man könnte zu ihrer Verteidigung einwenden, dass die modernen Assistenzsysteme sich stetig weiterentwickeln und das Ziel absehbar scheint. Schon jetzt können manche Autos selbstständig die Spur halten und einparken. Die Bundesanstalt für Straßenwesen klassifiziert diese Wagen als teilautomatisiert. „Der Sprung hin zum hochautomatisierten Fahren ist allerdings ein qualitativer“, sagt der Braunschweiger Wissenschaftler Maurer. Bisher müssen Fahrer die Assistenzsysteme pausenlos überwachen und jederzeit eingreifen können. Das gilt auch für die Testautos, die bisher unterwegs sind und wohl auch für diejenigen, die bald auf der A9 fahren werden. Im hochautomatisierten Betrieb dagegen kann die Fahrerin künftig nebenher eine Mail schreiben oder fernsehen. Schlafen aber darf sie nicht. Sie muss das Steuer innerhalb von weniger als einer Minute übernehmen können, wenn das Auto sie dazu auffordert. Das kann etwa bei plötzlich einsetzendem Starkregen oder Schnee der Fall sein, wo die Sensoren bisher versagen. Bis die Autos mit allen Wetter- und Straßensituationen allein zurechtkommen, werden wohl noch mindestens 15 Jahre vergehen.

Das Computersystem wird daher lernen müssen, seine Grenzen rechtzeitig zu erkennen. Die Maschine darf das Steuer nicht erst dann an den Menschen zurückgeben, wenn ein Unfall schon unvermeidlich ist. Sobald es die vollautomatisierten Autos gibt, müssen sie auch Entscheidungen treffen. Angenommen, ein paar Meter vor einem selbstfahrenden Auto läuft plötzlich ein Kind auf die Straße. Rechts gehen Menschen auf dem Bürgersteig, links kommt eine Motorradfahrerin entgegen. Soll der Wagen nun in den Gegenverkehr ausweichen? Und was ändert sich an der Abwägung, wenn die Motorradfahrerin ohne Helm unterwegs ist? Bislang ist das nicht mehr als ein Gedankenexperiment aus dem Handwerkskoffer der Moralphilosophen. „Im Moment ist die Technik noch gar nicht so weit, dass sie solche Dilemmasituationen überhaupt erfassen kann“, sagt Markus Maurer. Doch das Gedankenspiel könnte bald real werden.

Ein Mensch am Steuer entscheidet in solchen Momenten im Affekt. Ein Computer folgt einem Algorithmus. „In welchen Fällen darf ein Computerprogramm über Leben und Tod entscheiden?“, fragte die Linkspartei bereits die Bundesregierung. An der Wortwahl der Kleinen Anfrage zeigt sich, dass das Thema hochemotional ist. Der Runde Tisch hat bisher offenbar noch keine Position abgestimmt. Aus den Zwischenergebnissen geht lediglich hervor, Abwägungen in Dilemmasituationen müssten „in einem transparenten Diskurs ausgehandelt und herstellerübergreifend geregelt werden“.

Der Informatiker Daniel Göhring von der Freien Universität Berlin beschäftigt sich seit vielen Jahren mit dem automatisierten Fahren und den ethischen Fragen. „Die Frage ist, ob die Menschen ein Regelsystem akzeptieren, das immer den Schwächeren schützt“, sagt er. Unter den derzeitigen Möglichkeiten hält Göhring eine Vollbremsung im Notfall für die praktikabelste Lösung. Informatiker denken auch darüber nach, ob man die Entscheidung in einer solchen Situation nicht einem Zufallsgenerator überlässt, was der menschlichen Reaktion wohl am nächsten käme. Bloß würde ein Zufallsalgorithmus das große Versprechen des automatisierten Fahrens zumindest ein Stück weit konterkarieren: Der Verkehr soll sicherer werden, indem menschliche Fehler vermieden werden.

Permanente Kontrolle

Laut Statistischem Bundesamt haben knapp 68 Prozent der Autofahrer, die in einen Unfall mit Personenschaden verwickelt sind, vorher einen Fehler begangen: Sie waren zu schnell unterwegs, haben den Abstand nicht eingehalten oder die Vorfahrt genommen. Roboter dagegen halten sich an alle Regeln, die man ihnen vorgibt. Sie trinken niemals Alkohol und schlafen nicht ein. Das haben sie den Menschen voraus.

Allerdings werden die Bordsysteme massenhaft Daten sammeln, auch über den Fahrer. Und dort beginnt das Problem. Der Autopilot in hochautomatisierten Wagen muss ständig kontrollieren, ob der Fahrer wach ist und nach Aufforderung das Steuer übernehmen kann. „Mir bereitet diese permanente Überwachung große Bauchschmerzen“, sagt Marion Jungbluth, die für den Bundesverband der Verbraucherzentrale am Runden Tisch im Verkehrsministerium sitzt. Sie fordert, dass diese personenbezogenen Daten aus dem Innenraum des Autos ständig wieder überschrieben werden. Der Runde Tisch hat bereits beschlossen zu „prüfen, ob spezifische gesetzliche Regelungen zu Fragen der Zugriffsberechtigung [auf personenbezogene Daten] erforderlich sind“.

Die Daten sind auf jeden Fall begehrt. Versicherungen wollen wissen, ob der Fahrer kurz vor einem Unfall ein Nickerchen gemacht hat. Sollte er sich nicht regelkonform verhalten haben, wird er möglicherweise für den Unfall haften müssen, selbst wenn der Autopilot eingeschaltet war.

Auch die Autohersteller würden sich das Zugriffsrecht auf Daten aus dem Auto und der näheren Umgebung gerne per Gesetz zusichern lassen. Sie möchten ihr Produkt nach der Auslieferung weiter beobachten, um beispielsweise mögliche Softwarefehler per Update auszubügeln. „Die Überwachung aus Gründen der Produktentwicklung ist für uns ein absolutes No-Go“, sagt die Verbraucherschützerin Jungbluth. Doch am Runden Tisch sind die Pkw-Lobbyisten zahlenmäßig überlegen und sie steht mit ihrer Position ziemlich allein da. Zudem geraten die deutschen Autohersteller auf dem Zukunftsmarkt des automatisierten Fahrens mächtig unter Druck. Sie sehen ihren technologischen Vorsprung vor den neuen Playern aus dem Silicon Valley dahinschmelzen.

Aus wirtschaftspolitischer Sicht ist es durchaus verständlich, dass der Runde Tisch künftige Regeln zum automatisierten Fahren im Geheimen vorbereitet. Gesellschaftspolitisch ist diese Vorgehensweise jedoch höchst problematisch. Viele Fragen gehen nämlich jeden Verkehrsteilnehmer etwas an – etwa, wie sicher ein selbstfahrendes Auto sein muss, bevor es auf den Markt kommt. Die Wissenschaft bietet als Maß die Anzahl maximal tolerierbarer Störereignisse pro Stunde an, zum Beispiel 0,0000001. In der Praxis ist dieses Kriterium jedoch untauglich. Um eine statistisch belastbare Aussage für ein Modell treffen zu können, müssten Tausende Testautos mehrere Jahrzehnte lang pausenlos unterwegs sein. „Hier müssen Wirtschaft und Wissenschaft neue Lösungen entwickeln“, fordert Markus Maurer.

In der Vergangenheit hat die Automatisierung den Verkehr in der Regel sicherer gemacht. Man denke an den Autopiloten im Flugzeug. Die ersten Zahlen aus Kalifornien lassen Ähnliches für die selbstfahrenden Autos vermuten. Die 47 angemeldeten Testfahrzeuge haben bisher zwei Unfälle verursacht, wie die Verkehrsbehörde auf Nachfrage mitteilt. Dabei seien lediglich Blechschäden entstanden. Und: Zur Zeit des Unfalls seien beide Autos im manuellen Modus unterwegs gewesen. Die erste computergesteuerte Massenkarambolage lässt noch auf sich warten.

Dieser Beitrag erschien in Ausgabe 16/15.

Kommentare (8)

Sascha 03.05.2015 | 12:14

Das Problem: Jene Fragen, die eigentlich entscheidend sind, nämlich Fragen von Sicherheit und auch Datenschutz, werden so gehandhabt, als seien sie rein technische Fragen und Details, die man durch so oder so viele Jahre Forschung schon aus der Welt schaffen werde. Aber es sind im Grunde jene Fragen, die wirklich wichtig sind und nicht gegen ökonomische Fragen abgewägt werden dürfen.

Es geht hier nämlich ums Existenzielle: entweder der Vollautomat baut einen Unfall, bei dem Menschenleben auf dem Spiel stehen, oder nicht. Und da vertraue ich ganz einfach mehr auf das menschliche Gewissen und ganz sicher nicht auf einen Automaten, dem es scheissegal ist, wieviele Menschen er überfährt. Klar machen Menschen Fehler und klar bauen sie manchmal Unfälle. Aber ich finde es weitaus "sicherer", dennoch den menschlichen Faktor, das menschliche Gewissen in den Mittelpunkt zu stellen, der eben darauf achtet, Unfälle zu vermeiden. Das ist also keine Frage der technologischen Machbarkeit.

Und es geht wie immer im Kapitalismus natürlich wieder nur um das Geschäft. Dieses soll möglichst schnell in die Gänge kommen, daher auch "logisch", dass die Automobillobby mal wieder den meisten Einfluss bei den runden Tischen hat. Auch hier sollte eigentlich gelten, dass die Sicherheit nicht eine Frage von vielen ist, sondern der Kern, um den sich alles drehen soll. Daher müssten hier Menschen eingebunden werden, die sich fachlich mit solchen Fragen befassen und nicht die Autolobby, deren reines Interesse die Profitmaximierung ist. Was, wenn die Ampel plötzlich ausfällt? Oder eben das genannte Problem, wenn plötzlich ein Kind oder ein Reh auf die Strasse läuft? Ist es euer Ernst, dass dann ein Zufallsalgorithmus über Leben und Tod entscheidet?

Und ich finde, gerade in der Stadt sollte die Priorität sein, den Individualverkehr durch PKWs einzudämmen und nicht auch noch zu automatisieren. Das ist schon allein aus ökologischen Gründen das Gebot der Stunde. Also fangt endlich an, öffentliche Verkehrssysteme zu stärken und hier auch zu forschen, zb was zu tun ist, damit der öffentliche Verkehr für alle leistbar wird oder wie er effektiver im Sinne von höhere Intervalle und weniger Wartezeiten wird. In vielen Ländern sind die öffentlichen Verkehrsmittel eine Katastrophe und eine einzige Zumutung für die Menschen.

Und auch aus rein zwischenmenschlichen Gründen gehört der Verkehr in seiner Gesamtheit demokratisiert, denn es ist für mich als Fußgänger nicht einzusehen, warum ich so viel Lebenszeit damit vergeuden soll, minutenlang an Ampeln zu warten, nur damit der PKW-Individualverkehr und die Warentransporte möglichst effizient von A nach B kommen. Als Fußgänger muss man genau das gleiche Recht haben, schnell von A nach B zu kommen und hier gilt es Interessen zu verhandeln und nicht wie aktuell den Verkehr allein auf PKWs auszurichten. Es gibt also genug zu tun, die Automatisierung des Autofahrens ist jedenfalls bestimmt keine wünschenswerte Entwicklung.

gweberbv 03.05.2015 | 22:02

Es ist nicht absehbar, dass jemals ein Computer(-programm) besser komplexe Muster/Strukturen erkennen könnte, als ein durchschnittlich intelligenter und aufmerksamer Mensch. Schon gar nicht, wenn es nur über die relativ begrenzte Rechenkapazität verfügt, die in einem Auto ökonomisch darstellbar ist.

Die ganzen Fahrassistenzsysteme sind daher Nischenanwendungen für Bereiche, in denen die Komplexität der möglichen Ereignisse im Straßenverkehr radikal reduziert ist. Z. B. eben das Einparken in eine Lücke. Schon beim Spurwechsel auf einer stark befahrenen Straßen, wo der menschliche Fahrer zum Teil im Gesicht des schräg hinter ihm herankommenden Fahrer lesen muss, was gerade Sache ist, muss jedes automatisierte System passen. Auf Autobahnen (keine Kreuzungen, alle übrigen Verkehrsteilnehmer ebenfalls KFZ) könnte es dagegen was werden. Vielleicht. Jedenfalls bis zum ersten Massencrash, der auf einen Softwarefehler zurückgeführt wird.

otto8 04.05.2015 | 16:47

Wenn Menschen wirklich so gut darin sind, komplexe Muster zu erkennen, wieso fällt es ihnen dann in der Praxis so schwer, einfache Regeln (Vorfahrt, Geschwindigkeit, Abstand, Drogenkonsum, Telefonieren/Simsen am Steuer) einzuhalten? Wenn sich der Mensch wirklich durch etwas auszeichnet, dann ist es eine permanente Selbstüberschätzung, die in Deutschland jährlich Tausende das Leben und noch mehr Menschen nachhaltig ihre Gesundheit kostet.

Lethe 07.05.2015 | 13:16

eine eigentlich ganz einfache Frage wird in dem ganzen Blog nicht gestellt: Will außer Sicherheitsexperten und Herstellern überhaupt irgendjemand selbstfahrende Autos? Mein erstes selbstfahrendes Auto werde ich mir ganz sicher erst dann zulegen, wenn die Gesetzeslage mir keinerlei andere Möglichkeiten mehr offenlässt und die auch die wirklich allerletzte Übergangsfrist abgelaufen ist. Ich will selbst fahren. Ich will auch kein System, das mir die Entscheidung überlässt, ob ich selbst fahre. Ich will von dem Scheißdreck einfach nicht behelligt werden. Und hinsichtlich der angeblich moralischen Grundlagen hinter diesem Permanent-Überwachungstool - da lache ich ein andres Mal drüber.