Naive Euphorie oder apokalyptische Angst?

Autonome Systeme Der Deutsche Ethikrat tauchte auf seiner Jahrestagung tief ein in die Welt der Zukunft. Roboter, künstliche Intelligenz, Algorithmen überall. Und mittendrin: der Mensch
Bei diesem Beitrag handelt es sich um ein Blog aus der Freitag-Community
Naive Euphorie oder apokalyptische Angst?
Noch dürfen autonome Fahrzeuge nicht auf die Straße
Foto: Toru Yamanaka/AFP/Getty Images

Als der Autor dieser Zeilen am Mittwoch das Berliner Ellington-Hotel betritt, liegen auf dem Empfangstisch noch gut 150 nicht ausgeteilte Namensschildchen für angemeldete Gäste. Doch ich war nicht etwa überpünktlich sondern eine halbe Stunde zu spät – ein Eurocity, der mich von Ludwigslust nach Berlin bringen sollte, war ausgefallen. Es darf bezweifelt werden, dass so viele Leute plötzlich doch keine Lust mehr auf die Jahrestagung des Deutschen Ethikrates hatten. Viele steckten bestimmt noch im Stau oder versauerten wartend auf einem der 5.400 Bahnhöfe in Deutschland. Die Meta-Ebene kommt ins Spiel, wenn man realisiert, dass die Tagung genau diese Probleme ins Auge nimmt. Unter dem Titel „Autonome Systeme – Wie intelligente Maschinen uns verändern“ beschäftigten sich 500 Menschen mehrere Stunden mit der Zukunft der Arbeitswelt, des Eigenheims, der Gesundheitsversorgung und sogar der modernen Kriegsführung sowie eben mit der Zukunft der Mobilität – dem sogenannten „autonomen Fahren“.

Vormittags gerät der Präsident der Akademie für Technikwissenschaften, Prof. Dr. Henning Kagermann, in Wallung. Er erzählt, es sei absurd, wenn heute noch Menschen unter Einsatz ihres Lebens Bomben entschärfen oder radioaktiv verseuchte Gebiete räumen müssten. „Das ist doch toll!“, wenn das nicht mehr geschehen müsse. Er spricht aber auch die drei großen Sorgen an: Kontrollverlust, gesellschaftliche Spaltung, Jobverlust. Also: Herrschen in wenigen Jahrzehnten Roboter über uns? Werden in Zukunft im Alter nur noch die Reichen von Menschenhand gepflegt, die Armen hingegen mit sie versorgenden kupferverdrahteten Aluminiumhänden und Siri-Stimmen abgespeist? Wie viele Menschen rutschen in die Arbeitslosigkeit, wenn in wenigen Jahren, viele Berufe - insbesondere mittlerer Qualifikation – auch vollautomatisiert erledigt werden können. Was wird z.B. aus LKW-Fahrern, Paket- und Postboten, Taxi-Fahrern, Lageristen, Justizreferendaren und Verwaltungsfachangestellten mittlerer Qualifikation sowie Sport- und Börsenjournalisten? Den Nebel, der diese Fragen umgibt, kann heute natürlich niemand gänzlich lichten. Für Kagermann steht aber fest: All diese „autonomen“ Systeme – zum Begriff später noch mehr – können den Menschen unterstützen und seine Fähigkeiten ergänzen, sie aber nicht ersetzen. Und ja, seines Erachtens können sie sogar eine „inklusive Gesellschaft“ möglich machen.

Eingebetteter Medieninhalt

Danach folgte ein wirtschaftlicher Blick aufs Thema. Christoph Schmidt wirft die Frage auf, wie die Menschen aus einer höheren Lebenserwartung Glück ziehen sollen, wenn ihre Lebensumstände im Alter durchweg eher schlecht als recht sind? Der Chef des Wirtschafts-Sachverständigenrats umreißt die Arbeitswelt von morgen als eine, in der kreative Ideen und individuelle Fähigkeiten wesentlich mehr, Muskel- und die reine Arbeitskraft hingegen immer weniger wert sind. Die Wirtschaft gerate in stark beschleunigte Anpassungsprozesse, in der die sogenannte „kreative Zerstörung“ – also das notwendige Verdrängen und Auflösen alter Strukturen – stets und immer schneller Neues erschafft. An diesen Gedanken anschließend betont er die „begrenzte Wirkmächtigkeit politischen Handelns“. Der Tenor: Ein einmal aufgestelltes Regulierungskonzept könne meist schon innerhalb weniger Wochen verworfen werden, was die Politik zur Wahrnehmung permanenter und dynamischer Regulierung zwinge.

Einen äußerst interessanten Impuls gab eine Expertin für Algorithmen. Prof. Dr. Katharina Zweig hat in Kaiserslautern den einzigartigen Studiengang der Sozioinformatik eingeführt, was ihr mehrere Ehrungen einbrachte. Sie forderte auf der Jahrestagung wortstark ethische Leitlinien für die neuen Berufsfelder - wie die der Data-Sciences – sowie eine demokratisch legitimierte Prüfstelle, die sich u.a. mit der Legitimität von Algorithmen z. B. im Justizsystem beschäftigt. Sie referiert: In den USA sitzen mit 666 von 100.000 Menschen proportional die zweitmeisten Menschen in Haftanstalten. Davon sind 40% Afroamerikaner, obwohl diese nur 13% der Gesamtbevölkerung darstellen. Die Hoffnung: Sollte dieser Fakt auf latentem Rassismus beruhen, könnte ein algorithmisches Entscheidungssystem dem entgegenwirken. Das Problem: die enorm hohe Fehlerquote. Ein Rückfälligkeitsvorhersage-Algorithmus beispielsweise, wie er nicht selten in den USA schon angewendet wird, liegt mit 50-80% ausgesprochen oft falsch. Dabei beantworten zuständige Beamten und der Inhaftierte selbst einen Fragebogen, den der Algorithmus anschließend auswertet. Die 30% mit den „schlechtesten“ Antworten landen in einer Hochrisikogruppe und kommen für eine vorzeitige oder eine Entlassung auf Bewährung nicht mehr in Frage. Hier offenbart sich die Schwäche des Algorithmus. So objektiv oder gar neutral ist er gar nicht. Die Prämissen sind menschengemacht. Die Daten, mit denen er gefüttert wird, und die Methodik, wie er arbeitet, haben Menschen entschieden – subjektiv. Doch Zweig zeigt sich auch verblüfft. Denn während solche automatisierten Systeme unter permanenter Beobachtung stehen, hat eine Evaluation der menschlichen Fehlerquote nie stattgefunden. Sie stellt die Frage: „Warum haben wir menschlichen Experten nicht öfter auf die Finger geschaut?“ Sie spricht von einer „glücklichen Lage“, da wir noch nicht viele dieser Systeme einsetzen würden und so eine Debatte darüber jetzt zum richtigen Zeitpunkt komme.

Eingebetteter Medieninhalt

Julian Nida-Rümelin, dessen vollständige Titelsammlung aufzuzählen diesen Artikel sprengen würde, hielt den intellektuell wohl anspruchsvollsten Vortrag, in dem er sich mit der Verantwortung für „autonome“ Systeme beschäftigt. Er plädiert dafür, dass beim „autonomen“ Fahren stets eine Letztverantwortung des Fahrers bestehen bleibt. „Autonome“ Systeme sollten keine mentalen und speziell personalen Eigenschaften zugeschrieben werden. Intentionalität und Personalität seien zentrale Merkmale von Verantwortung – deshalb könnten autonome Systeme auch nicht verantwortlich gemacht werden für ihr Handeln – dazu später noch mehr. Rümelin skizziert die aktuelle Debattenkultur als eine von Aufregung geprägte. Er attestierte dem Auditorium sich in Apokalyptiker und Euphoriker zu spalten. Beides sei nicht zielführend.

Den ersten Lacher gibt es – ganz unmoralisch – als ein Mann mittleren Alters an das Saalmikro tritt und über die ethischen Dilemmata des „autonomen Fahrens“ resümiert: „Wir legen unsere Daten in die Hände eines Profitkonzerns. Das finde ich viel interessanter und problematischer als die Frage, ob von der Straßenbahn jetzt ein oder zwei überfahren werden.“ [frei zitiert] Wird es mal zäh in der Diskussion wissen auch die Moderierenden und Referenten geschickt Witziges einzustreuen. So erfährt man beispielsweise, dass „autonomen“ Fahrzeugen in der Vergangenheit gezielt Mut antrainiert wurde. Sie standen vorher teils minutenlang an Kreisverkehren, weil sie sich nicht „trauten“ einzufahren. Diese humoristischen Momente waren aber nur von kurzer Dauer. Die Veranstaltung war in der Gesamtheit eben keine für Technikfanatiker, sondern für Menschen, die sich fragen, welche ethischen und normativen Rahmen, eine solche sich rasant entwickelnde Hochtechnologie brauch – das ist eben eher hochkomplex und nüchtern als plakativ und humoristisch.

Für all diese Fragen gab es dann am Nachmittag der Tagung das Forum A „Selbstfahrende Autos“. Während in anderen Sälen darüber diskutiert wurde, wie Ethik und Moral mit einer Drohne, die ihre Ziele eigenständig aussucht, zerstört und tötet, korrelieren oder inwiefern eigentlich die Unantastbarkeit der Menschenwürde noch gewährleistet ist, wenn alte Menschen bald nur noch zu Künstlicher Intelligenz Kontakt haben. Währenddessen waren über 100 Teilnehmer sehr interessiert an Dr. Joachim Damasky und Reinhard Merkel. Hinter den für viele unbekannten Namen verbergen sich der Geschäftsführer der Abteilung „Technik und Umwelt“ des Verbandes der Automobilindustrie und ein renommierter Hamburger Professor für Staatsrecht und Rechtsphilosophie. „Wir sind, was das autonome Fahren angeht, sehr konservativ.“, gab Damasky recht schnell zu verstehen und meinte damit die Automobilindustrie. Gäbe es in Deutschland ein oder gar zwei erste Verkehrstote durch autonomes Fahren, könne man die gesellschaftliche Akzeptanz für immer vergessen. Ich hake nach: „Was würden Sie denn Leuten entgegnen, die meinen: Die Autoindustrie hat gar kein Interesse am autonomen Fahren, weil in der Konsequenz wesentlich weniger Fahrzeuge benötigt werden, da ein Auto plötzlich fast 24 und nicht nur eine Stunde am Tag in Benutzung sein wird. Sie stünden nicht mehr unnötig rum. Man ruft morgens die App auf und in 3 Minuten steht das Auto vor der Tür.“ Die Frage lächelte er zunächst weg. „Ein klares Ja! Wir haben Interesse.“, erwiderte er dann. Autos seien heute im Schnitt 9,4 Jahre alt, die Industrie wolle ihre neuen Produkte auf den Markt bringen. Mehr Nutzung bedeute dann auch mehr Verschleiß usw.. Konkrete Zahlen konnte er allerdings nicht nennen.

Eingebetteter Medieninhalt

Jedes Jahr sterben auf deutschen Straßen etwa 3.500 Menschen, weltweit 1,2 Millionen. 90% dieser tödlichen Unfälle sind auf menschliches Versagen zurückzuführen. Die Hoffnung: Diese 90% der Unfälle könnte ein vollautomatisierter Automobilverkehr vermeiden. Die Prognose: bis 2020 werden "autonome" Fahrsysteme bereits einen Großteil des Autobahnverkehrs prägen, während der unberechenbare, hektische Stadtverkehr, der voll ist von Straßenschildern, Ampeln, Rücklichtern, Fußgängern, Fahrradfahrern und vor allem sozialer Interaktion mit anderen Fahrern wohl erst in 15 Jahren allmählich vom Individualverkehr abrückt.

Die vermeintliche gesamtgesellschaftliche Dissonanz, die den berühmt-berüchtigten Tesla-Toten vom Juni 2016 skandalisiert, die 1,2 Millionen größtenteils durch menschliches Versagen verursachten Toten aber hinnimmt, erklärt uns Reinhard Merkel. Das Stichwort: „erlaubtes Risiko“. Eine Gesellschaft gewöhnt sich mit der Zeit an gewisse Risiken. Wäre Carl Benz 1886 zu Otto von Bismarck gegangen und hätte die Entwicklung des Automobilverkehrs skizziert – mit den 3.214 Toten im Jahr 2016 und den 19.193 Toten im Jahr 1970. Bismarck und die gesamte Gesellschaft hätten dieses Teufelszeug niemals akzeptiert geschweige denn gesetzlich zugelassen. Doch nun - über 130 Jahre später - ist der Tod von etwa 3.500 Menschen jährlich zu einem „erlaubten Risiko“ geworden. Es ist sehr unwahrscheinlich selbst unter diesen 3.500 Menschen zu sein, dass es sie aber geben wird, ist so sicher wie das Amen in der Kirche.

Die Automobilindustrie plane in den nächsten Jahren mit mindestens 14-18 Milliarden Euro an Eigeninvestitionen in das „autonome“ Fahren, so Damasky. Das ist nicht wenig, könnte aber angesichts gesamtdeutscher Forschungsausgaben in Höhe von 90 Milliarden Euro allein im Jahr 2015 auch wesentlich mehr sein. Doch trotz des selbstattestierten Konservatismus hat Damasky Visionen. Manche würden sagen: restriktive Visionen, wenn nicht gar repressive. Der Anschlag am Breitscheidplatz letzten Dezember wäre mit „autonomen“ Systemen nie passiert, so der Industrievertreter. Sie hätten verhindert, dass der LKW-Fahrer weiter Vollgas geben kann. Damasky sprach auch von Systemen, die den Fahrer schlichtweg daran hindern sollen, innerorts schneller als 50 km/h zu fahren oder riskante Überholmanöver zu tätigen, indem die Systeme konkret in die Lenkung eingreifen. Etwas positiver gewendet könne es aber auch darum gehen, dass die 70-jährige Großmutter – sollte sie Gas und Bremse mal verwechseln – von einer freundlichen Stimme erinnert wird, ob das starke Bremsmanöver bei einem dicht auffahrenden Fahrzeug wirklich eine so gute Idee sei. Damasky brachte zur Unterstützung seiner Überlegungen eine eindrucksvolle Zahl mit: jeder vierte Autofahrer ist schon mal am Steuer eingeschlafen.

Eingebetteter Medieninhalt

Die ethischen Fragen, insbesondere die genuinen Dilemmata, sind besonders spannend, aber auch besonders kompliziert darzustellen. Es stellen sich Fragen, in welcher Art und Weise „autonome“ Systeme auf Dilemmata-Situationen reagieren (können) sollen. Beispiel: Eine Gruppe unaufmerksamer Kinder rennt über eine rote Ampel. Auf der anderen Seite wartet eine Mutter mit Kinderwagen. Das Fahrzeug kann nicht mehr rechtzeitig zum Stehen kommen, sondern sich nur noch entscheiden, ob es in die Gruppe Kinder oder die junge Mutter hinein rast. Mit solchen Fragen beschäftigt sich Reinhard Merkel. In dem als Weichenstellerfall bekannten „Trolley-Problem“, stellt sich die Frage, ob ein Weichensteller einen Zug so umlenkt, dass er 10 Menschen tötet oder einem anderen lediglich die Beine abfährt. Merkels These: Ein Mensch hat nicht die Entscheidungskompetenz, die Beine eines Menschen zu opfern. Und die betreffende Person X hat nicht die Pflicht, seine Beine opfern zu lassen. Merkels Lösung: Wir können Maschinen und Algorithmen Dinge machen lassen, die Menschen nicht so einfach dürften. Diese Dilemmata muss ein Algorithmus lösen, der die Problemstellung – wie im heutigen Individualverkehr – als fernes und erlaubtes Risiko begreift. In dem konkreten Moment dann wird keine Entscheidung mehr getroffen, sondern ein Programm abgespult. Denkt man das weiter, ergeben sich viel radikalere Problemstellungen: Es wird z. B. wesentlich absurder, wenn sich die Frage stellt, ob Dritte oder der Fahrer des „autonomen“ Fahrzeugs überleben. Merkel warf die offene Frage ein, ob es wirklich vertretbar wäre, „autonome“ Systeme so zu programmieren, dass oberste Priorität, die Unversehrtheit des Fahrers hätte. Ein Mann aus dem Auditorium gab zu bedenken: „Wer würde denn ein Auto kaufen in dem Wissen, dass es im Zweifel einen selbst und nicht andere umbringt?“ Darüber hinaus hob Merkel ein Novum hervor. Es trete mit dem „autonomen“ Fahren eine Situation ein, die es immer schwerer möglich mache, Verantwortliche zu finden. Das aber sei ein Urbedürfnis des Menschen – kommt jemand zu Schaden, brauch es Verantwortliche. Strafrechtlich sei das aber alles schwierig, die Schuldfrage - die tausenden Programmierer des Algorithmus, der Insasse des „autonomen“ Fahrzeugs, die Hersteller aller möglicherweise fehlerbehafteten Materialen, die etlichen Firmen, die innerhalb des vernetzten Fahrens unendlich große Datenmengen bereitstellen und aufbereiten? Der Tesla-Konzern wurde im Januar von US-Gerichten offiziell freigesprochen; gleichzeitig hat Volvo erklärt, sie übernähmen die Verantwortung, wenn in Zusammenhang mit ihren "autonomen" Fahrzeugen jemand zu Schaden käme. Also: Wer ist schuld im Falle eines Unfalls? Merkel kann diese Fragen – auch aus Zeitgründen - nicht endgültig klären. Ihm ist aber wichtig: Trifft man eine Entscheidung für ein abzuspulendes Programm (z.B. immer nach links ausweichen, wenn links nicht möglich ist, dann nach rechts ausweichen – so fordert es der Philosoph Richard David Precht), dann muss dieses Programm, dieser Algorithmus auch in der konkreten Situation der menschlichen Kontrolle entzogen und damit der Mensch seiner Verantwortung beraubt werden.

Eingebetteter Medieninhalt

Dem aufmerksamen Leser fiel auf: der Begriff der „Autonomie“ war nun bewusst immer mit Anführungszeichen versehen. Geschuldet ist das sowohl dem mit viel Applaus gewürdigten Vortrag der Schriftstellerin Thea Dorn zum Ende der Tagung als auch einer linguistischen Überlegung. Sie, Thea Dorn, wolle dieses Wort – autonom - nicht verwenden. Autonom seien diese Systeme für sie erst, wenn sie morgens frei entscheiden könnten: „Ich fühle mich nicht wohl als selbstfahrendes Auto, ich werde jetzt Pflegeroboter.“ Autonomie sei etwas Urmenschliches. Genau wie der Begriff des Lernens. Laut Dorn ist das was wir mit den Systemen machen, vielmehr ein Training, keine Lernmaßnahme. Sie sind nicht autonom, sondern maximal vollautomatisiert. Der künstliche Intelligenz fehle noch vor allem eines: ein Gewissen. Dorn prägt die Skepsis. Sie befürchtet, dass eine Situation eintritt, in der der Mensch irgendwann „die nervigere, langsamere, schlechter zu upgradende Version einer Maschine“ ist. Sie bemüht den Aufklärer Immanuel Kant und führt seinen Leitspruch ins 21. Jahrhundert: „Habe den Mut und den Verstand, dem vollautomatisierten System zu wiedersprechen.“ Damit ging Dorn auch auf Kagermann ein, der am Vormittag davon sprach, dass der zu zahlende Preis für "autonome" Systeme sei, dass nicht mehr einsehbar ist, wie sie ihr Ziel erreichen.

Und die lingustische Überlegung? Interessant an dem Begriff des "autonomen" Fahrens ist, dass unser heutiger Individualverkehr das im eigentlichen Sinne autonome Fahren ist. Wir sitzen am Steuer, wir beschleunigen und bremsen, wir blinken und schalten, können entscheiden, ob wir anhalten oder weiterfahren. Nehmen uns intelligente Systeme diese Handlungsoptionen ab, landen wir bei einem völlig anderen Fahren: dem heteronomen. Wir sind aber bereits so technikaffin, dass wir uns schlichtweg in die Maschine hineinversetzen und eine eigentlich heteronome Erscheinungsform plötzlich "autonom" nennen.

Eingebetteter Medieninhalt

Zum Schluss noch etwas völliges anderes: „Wie intelligente Maschinen uns verändern“ – so der Titel der Veranstaltung. Die damit einhergehende, im Detail noch sehr schwer einzuschätzende Umstrukturierung des weltweiten Arbeitsmarktes schwebte stets im Raum, wurde allerdings zumeist nur in Nebensätzen abgehandelt. Eine Sozialdemokratin der Hamburger Bürgerschaft versuchte am Vormittag über das Saalmikro das bedingungslose Grundeinkommen in die Debatte zu bringen. Erfolgreich war sie damit aber leider nicht. Schade.

13:33 24.06.2017
Dieser Beitrag gibt die Meinung des Autors wieder, nicht notwendigerweise die der Redaktion des Freitag.
Geschrieben von

Steven Hartig

Manisch Interessierter | 20 Jahre | Student der Soziologie und Linguistik in Bielefeld
Steven Hartig

Kommentare 10