„Rudimentäre Moral“

Interview Welche Ethik programmiert man in autonome Autos? Sollten wir Superintelligenz wirklich bauen? Janina Loh erforscht die Dilemmas der KI-Entwicklung

Sind Roboter autonom? Können sie ethisch richtig oder falsch handeln? Müssen sie Verantwortung für ihr Tun und Lassen übernehmen? Mit derart kniffligen Fragen beschäftigt sich Janina Loh in ihrer wissenschaftlichen Arbeit. Derzeit verfasst sie ihre Habilitationsschrift über posthumanistische Elemente in Hannah Arendts Werk und Denken. Damit ist die Messlatte gelegt, denn um die ganz großen Fragen der Philosophie geht es auch in unserem Interview.

der Freitag: Frau Loh, Anfang des Jahrtausends waren Ray Kurzweil und Bill Joy, beide Berater des damaligen US-Präsidenten Bill Clinton, überzeugt, dass die Robotertechnik den Menschen ablösen würde. Keine 20 Jahre später reden wir von autonomem Fahren, von Industrie 4.0 und von Medizin- und Pflegerobotern. An welchem evolutionären Punkt befinden wir uns gerade?

Janina Loh: Ich habe immer Probleme mit solchen Prognosen. Kurzweil ging davon aus, dass wir im Jahr 2045 unseren Geist auf einen Computer hochladen würden. Davon sind wir Lichtjahre entfernt. Abgesehen davon, dass Kurzweil einen logischen Fehlschluss begeht, indem er von technologischen Entwicklungen auf künftige schließt. Das ist so, als wenn ich mein Leben lang nur weiße Schwäne sehe und darauf schließe, dass es nur weiße Schwäne gibt.

Sie sind Roboterethikerin, Ihre Kollegin Catrin Misselhorn spricht von Maschinenethik. Was macht eine Maschine eigentlich zu einem Roboter?

Zunächst: Alle Roboter sind Maschinen, aber nicht alle Maschinen sind Roboter. Ein Roboter ist eine elektromechanische Maschine, die durch einen Prozessor gesteuert ist, durch Sensoren und einen Aktor, der Informationen aus der Umwelt aufnehmen und in mechanische Abläufe umsetzen kann. Er ist verkörpert, autonom, und durch seine Verkörperung kann er in seine Umwelt hineinwirken.

Das Besondere am Roboter ist also eine bestimmte Form von Autonomie. Kann man sagen, je mehr sich eine Maschine der Kontrolle entzieht, desto menschenähnlicher wird sie?

Schöne These. Die spannendsten Roboterprojekte verfügen über eine gewisse Lernfähigkeit, etwa im Bereich der neuronalen Netzwerke, die aus Erfahrung lernen. Bei Kindern ist das ähnlich, wir können nur bis zu einem gewissen Grad beeinflussen und hoffen, dass sie sich nach unseren Wünschen entwickeln. Dieses Unkontrollierbare, Unplanbare ist sicher ein Merkmal des Menschen. Der Transhumanismus versucht, dies einzuschränken. Indem wir also Roboter schaffen, die einen Funken dieser Unverfügbarkeit mitbringen, rücken sie uns näher.

Autonome Fahrsysteme entlasten uns von Stress, andererseits sind sie auch gespenstisch, denn wir delegieren Entscheidungen. Wir Menschen entscheiden reflexhaft und kontextabhängig. Wie entscheidet ein Roboter?

Selbstfahrende Systeme oder Roboter, die in gewisser Weise eigenständig handeln, müssen entsprechend programmiert werden. Das heißt, diejenigen, die sie programmieren, müssen ethische Entscheidungen treffen. In unserer Gesellschaft gibt es jedoch mindestens drei im menschlichen Alltag nebeneinanderher existierende ethische Systeme, die sich durchaus auch widersprechen können: die aristotelische Tugendethik, die deontologische Ethik Kants und den Utilitarismus Benthams und Mills. Soll eine Maschine entscheiden, muss man ihr eine Ethik implementieren, also die beste. Das Problem ist aber, dass es gar keine beste Ethik gibt.

In diesem Zusammenhang wird immer das berühmte Trolley-Case-Beispiel aufgerufen ...

Ja, es geht um die Vorstellung, vor einer Weiche zu stehen, auf die ein Zug zurollt, der fünf Menschen überrollen wird, wenn er weiterfährt. Sie können ihn auf eine andere Weiche umlenken, dann wird er „nur“ einen Menschen überfahren. Beim autonomen Fahren geht es um ganz ähnliche Entscheidungen: Soll das Auto in einer entsprechenden Situation den Vater mit dem kleinen Kind überfahren oder ausweichen und die drei Ärztinnen treffen, die gerade unterwegs sind? Seitens der Industrie wird häufig der Eindruck erweckt, es gäbe eine richtige philosophische Lösung für dieses Dilemma. Die weltweit erste Ethikkommission zum autonomen Fahren hat 2017 einen Bericht dazu veröffentlicht, in dem zunächst mal alle utilitaristischen Lösungen verworfen werden, das Auto darf also unter keinen Umständen nach irgendwelchen Kriterien – Alter, Anzahl oder Ähnliches – entscheiden. Menschenleben sind nicht aufrechenbar, das widerspricht dem Prinzip der Menschenwürde. Also muss das Auto – wie ich sagen würde – den einprogrammierten Kurs beibehalten, egal, wer dabei zu Schaden kommt.

Wenn der Roboter ein lernendes System ist, könnte er vielleicht intuitive Entscheidungen treffen.

Ja, und deshalb müssen wir gut überlegen, welchen Maschinen wir Lernfähigkeit mitgeben. Stellen Sie sich einen lernfähigen artifiziellen Soldaten vor, der loszieht und entscheidet, wen er tötet, oder ein Auto, das „erfahren“ will, wie es ist, gegen eine Wand zu fahren. Lernen bedeutet auch, Fehler machen zu dürfen, das wollen wir sicher nicht allen Systemen zugestehen.

Aber denken wir mal an Pflegeroboter. Wie soll ich mich gegen das Ding wehren, wenn es mir gegen meinen Willen Tabletten verabreichen will?

Es handelt sich derzeit um Assistenzsysteme wie die Roboterpuppe Paro, die nicht ernsthaft menschliche Pflegende ersetzen sollen. In Entwicklung sind Maschinen, die in Privathäusern zum Einsatz kommen und Menschen im Alltag unterstützen sollen. Sie können Menschen nicht vollumfänglich pflegen. Und es gibt auch noch keinen Roboter, der Patient*innen Tabletten verabreicht. Natürlich würden sich dann ethische Fragen stellen, etwa, wenn eine Patientin sagt: „Ich möchte meine Medikamente heute nicht nehmen.“ Soll der Roboter sie zwingen oder die Ärztin und Verwandte anrufen?

Sie glauben also nicht, dass die Selbstkontrolle im foucaultschen Sinn abgelöst wird durch eine neue Fremdkontrolle?

Vielleicht, aber nicht notwendig. Nick Bostrom schreibt Bücher über Superintelligenz und sagt, wir müssen uns überlegen, welche ethischen Werte wir dieser Superintelligenz geben wollen. Ich würde noch einen Schritt zurückgehen und fragen, ob wir solche Maschinen überhaupt haben wollen, denn das ist ja unsere Entscheidung. Kurzweil glaubt ganz optimistisch, diese Maschinen würden sich wie Kinder zu ihren Eltern verhalten, also gut. Ich wäre mir da nicht so sicher.

Zur Person

Janina Loh, Jahrgang 1984, ist Assistentin im Bereich Technik- und Medienphilosophie an der Universität Wien. Im September erscheint von ihr im Suhrkamp Verlag das Taschenbuch Roboterethik. Eine Einführung

Mit Entscheidungen ist auch Verantwortung verbunden. Kann ein Roboter moralische oder juristische Verantwortung tragen?

Moralische Verantwortung würde ich für Roboter nicht per se ausschließen, obwohl ihnen derzeit die Voraussetzungen dafür fehlen, in einem starken Sinn als verantwortlich gelten zu können: Handlungsfähigkeit oder Autonomie, Kommunikationsfähigkeit, Urteilskraft. Generell würde ich sagen, dass Maschinen diese Kompetenzen nur simulieren können müssen, um in ganz rudimentärem Sinn moralisch verantwortlich genannt zu werden. Das ist die sogenannte Schwache-KI-These. Im Falle des selbstlernenden autonomen Autos können wir vielleicht davon ausgehen, dass es über moralische Verantwortung verfügt, doch Verantwortung verteilt sich auf mehrere Schultern, und Menschen sind immer verantwortlicher. Was die juristische Verantwortung betrifft, entwickelt das EU-Parlament gegenwärtig ein Konzept, nach dem manche Roboter als elektronische Personen identifiziert werden können.

Ein Beispiel für die Belastbarkeit der Mensch-Roboter-Beziehung sind Sexroboter, je nachdem, ob man sie als menschliche Erweiterung denkt oder als andersartig ...

Ich denke nicht – und das wird Sie jetzt enttäuschen –, dass Sexroboter etwas kategorial anderes sind. Die Steinzeitmenschen haben schon Dildos aus Stein benutzt, um ihre sexuellen Bedürfnisse zu befriedigen. Was ich bei Sexrobotern problematisch finde, ist nicht, dass es sie gibt, sondern wer sie baut und wie. Die derzeit verfügbaren Sexroboter sind hart gegendert, Roxxxy etwa verfügt über fünf vorprogrammierte Modi, „Wild Wendy“, „Frigid Farrah“ oder „S&M Susan“, was schon zeigt, dass sie nach fragwürdigen Geschlechterstereotypen konzipiert sind. Dann gibt es Roboter, die einen implementierten Rape-Modus haben, oder solche, die „Nein“ sagen können, was die Besitzer*innen dazu animiert, sich darüber hinwegzusetzen, und Vergewaltigung als normalen Bestandteil des sexuellen Begehrens erscheinen lässt. Generell habe ich aber nichts gegen Sexroboter, solange sie möglichst viel Genderdiversität repräsentieren. Und Sexroboter zeigen, dass Menschen in der Lage sind, emotionale Bindungen zu allen möglichen Wesen aufzunehmen, zu Tieren, Pflanzen und eben zu Maschinen. Das nimmt uns nichts von unserer Kompetenz, uns mit Menschen zu verbinden.

Menschliche Interaktion gelingt doch nur, wenn nicht nur eigene Bedürfnisse befriedigt werden, sondern auch die der anderen.

Ich glaube, ich muss nicht den Anspruch haben, die Bedürfnisse meines Gegenübers zu befriedigen, damit Kommunikation gelingt. Aber Menschen, die in der Lage sind, sich etwa mit Tieren einzulassen, können Bedürfnisse befriedigen. In etwas radikalerer Form gilt das auch für Maschinen. Menschen, die eine Beziehung mit ihnen aufbauen, gehen selbstverständlich davon aus, dass ihr artifizielles Gegenüber Bedürfnisse hat. Mir geht es nicht um die kategoriale Unterscheidung zwischen Mensch, Tier und Maschine, sondern darum, ein gutes Miteinander zu entwickeln und ethische Grundsätze dafür zu schaffen. Das ist ein inklusiver Ansatz.

In der aktuellen feministischen Debatte über Sexroboter wiederholen sich alte Kontroversen: Diejenigen, die gegen Sexroboter agitieren, argumentieren mit der Stereotypisierung von Geschlechterrollen, die anderen feiern die Befreiung vom männlichen Joch.

Das ist nicht erstaunlich, denn in der Roboterethik wiederholen sich alle Fragen, die wir seit Jahrtausenden zu beantworten versuchen, Fragen nach Autonomie, Verantwortung, nach dem Umgang mit anderen. In Bezug auf Sexrobotik werden sie neu gestellt. Das ist auch gut so. Schlimm wäre, wenn niemand darüber reden wollte.

06:00 04.06.2019
Geschrieben von

Ulrike Baureithel

Autorin und Vielfachbewegte in Berlin
Ulrike Baureithel

Ihnen gefällt der Artikel?

Dann testen Sie den Freitag 3 Wochen kostenlos. Wenn Sie danach weiterlesen, erhalten Sie das Buch "Oben und Unten" von Jakob Augstein und Nikolaus Blome als Treuegeschenk.

Abobreaker Artikel 3NOP ObenUnten

Kommentare 93

Dieser Kommentar wurde versteckt
Avatar
Ehemaliger Nutzer | Community