Als der Autor dieser Zeilen am Mittwoch das Berliner Ellington-Hotel betritt, liegen auf dem Empfangstisch noch gut 150 nicht ausgeteilte Namensschildchen für angemeldete Gäste. Doch ich war nicht etwa überpünktlich sondern eine halbe Stunde zu spät – ein Eurocity, der mich von Ludwigslust nach Berlin bringen sollte, war ausgefallen. Es darf bezweifelt werden, dass so viele Leute plötzlich doch keine Lust mehr auf die Jahrestagung des Deutschen Ethikrates hatten. Viele steckten bestimmt noch im Stau oder versauerten wartend auf einem der 5.400 Bahnhöfe in Deutschland. Die Meta-Ebene kommt ins Spiel, wenn man realisiert, dass die Tagung genau diese Probleme ins Auge nimmt. Unter dem Titel „Autonome Systeme – Wie intelligente Maschinen uns verändern“ beschäftigten sich 500 Menschen mehrere Stunden mit der Zukunft der Arbeitswelt, des Eigenheims, der Gesundheitsversorgung und sogar der modernen Kriegsführung sowie eben mit der Zukunft der Mobilität – dem sogenannten „autonomen Fahren“.
Vormittags gerät der Präsident der Akademie für Technikwissenschaften, Prof. Dr. Henning Kagermann, in Wallung. Er erzählt, es sei absurd, wenn heute noch Menschen unter Einsatz ihres Lebens Bomben entschärfen oder radioaktiv verseuchte Gebiete räumen müssten. „Das ist doch toll!“, wenn das nicht mehr geschehen müsse. Er spricht aber auch die drei großen Sorgen an: Kontrollverlust, gesellschaftliche Spaltung, Jobverlust. Also: Herrschen in wenigen Jahrzehnten Roboter über uns? Werden in Zukunft im Alter nur noch die Reichen von Menschenhand gepflegt, die Armen hingegen mit sie versorgenden kupferverdrahteten Aluminiumhänden und Siri-Stimmen abgespeist? Wie viele Menschen rutschen in die Arbeitslosigkeit, wenn in wenigen Jahren, viele Berufe - insbesondere mittlerer Qualifikation – auch vollautomatisiert erledigt werden können. Was wird z.B. aus LKW-Fahrern, Paket- und Postboten, Taxi-Fahrern, Lageristen, Justizreferendaren und Verwaltungsfachangestellten mittlerer Qualifikation sowie Sport- und Börsenjournalisten? Den Nebel, der diese Fragen umgibt, kann heute natürlich niemand gänzlich lichten. Für Kagermann steht aber fest: All diese „autonomen“ Systeme – zum Begriff später noch mehr – können den Menschen unterstützen und seine Fähigkeiten ergänzen, sie aber nicht ersetzen. Und ja, seines Erachtens können sie sogar eine „inklusive Gesellschaft“ möglich machen.
Danach folgte ein wirtschaftlicher Blick aufs Thema. Christoph Schmidt wirft die Frage auf, wie die Menschen aus einer höheren Lebenserwartung Glück ziehen sollen, wenn ihre Lebensumstände im Alter durchweg eher schlecht als recht sind? Der Chef des Wirtschafts-Sachverständigenrats umreißt die Arbeitswelt von morgen als eine, in der kreative Ideen und individuelle Fähigkeiten wesentlich mehr, Muskel- und die reine Arbeitskraft hingegen immer weniger wert sind. Die Wirtschaft gerate in stark beschleunigte Anpassungsprozesse, in der die sogenannte „kreative Zerstörung“ – also das notwendige Verdrängen und Auflösen alter Strukturen – stets und immer schneller Neues erschafft. An diesen Gedanken anschließend betont er die „begrenzte Wirkmächtigkeit politischen Handelns“. Der Tenor: Ein einmal aufgestelltes Regulierungskonzept könne meist schon innerhalb weniger Wochen verworfen werden, was die Politik zur Wahrnehmung permanenter und dynamischer Regulierung zwinge.
Einen äußerst interessanten Impuls gab eine Expertin für Algorithmen. Prof. Dr. Katharina Zweig hat in Kaiserslautern den einzigartigen Studiengang der Sozioinformatik eingeführt, was ihr mehrere Ehrungen einbrachte. Sie forderte auf der Jahrestagung wortstark ethische Leitlinien für die neuen Berufsfelder - wie die der Data-Sciences – sowie eine demokratisch legitimierte Prüfstelle, die sich u.a. mit der Legitimität von Algorithmen z. B. im Justizsystem beschäftigt. Sie referiert: In den USA sitzen mit 666 von 100.000 Menschen proportional die zweitmeisten Menschen in Haftanstalten. Davon sind 40% Afroamerikaner, obwohl diese nur 13% der Gesamtbevölkerung darstellen. Die Hoffnung: Sollte dieser Fakt auf latentem Rassismus beruhen, könnte ein algorithmisches Entscheidungssystem dem entgegenwirken. Das Problem: die enorm hohe Fehlerquote. Ein Rückfälligkeitsvorhersage-Algorithmus beispielsweise, wie er nicht selten in den USA schon angewendet wird, liegt mit 50-80% ausgesprochen oft falsch. Dabei beantworten zuständige Beamten und der Inhaftierte selbst einen Fragebogen, den der Algorithmus anschließend auswertet. Die 30% mit den „schlechtesten“ Antworten landen in einer Hochrisikogruppe und kommen für eine vorzeitige oder eine Entlassung auf Bewährung nicht mehr in Frage. Hier offenbart sich die Schwäche des Algorithmus. So objektiv oder gar neutral ist er gar nicht. Die Prämissen sind menschengemacht. Die Daten, mit denen er gefüttert wird, und die Methodik, wie er arbeitet, haben Menschen entschieden – subjektiv. Doch Zweig zeigt sich auch verblüfft. Denn während solche automatisierten Systeme unter permanenter Beobachtung stehen, hat eine Evaluation der menschlichen Fehlerquote nie stattgefunden. Sie stellt die Frage: „Warum haben wir menschlichen Experten nicht öfter auf die Finger geschaut?“ Sie spricht von einer „glücklichen Lage“, da wir noch nicht viele dieser Systeme einsetzen würden und so eine Debatte darüber jetzt zum richtigen Zeitpunkt komme.
Julian Nida-Rümelin, dessen vollständige Titelsammlung aufzuzählen diesen Artikel sprengen würde, hielt den intellektuell wohl anspruchsvollsten Vortrag, in dem er sich mit der Verantwortung für „autonome“ Systeme beschäftigt. Er plädiert dafür, dass beim „autonomen“ Fahren stets eine Letztverantwortung des Fahrers bestehen bleibt. „Autonome“ Systeme sollten keine mentalen und speziell personalen Eigenschaften zugeschrieben werden. Intentionalität und Personalität seien zentrale Merkmale von Verantwortung – deshalb könnten autonome Systeme auch nicht verantwortlich gemacht werden für ihr Handeln – dazu später noch mehr. Rümelin skizziert die aktuelle Debattenkultur als eine von Aufregung geprägte. Er attestierte dem Auditorium sich in Apokalyptiker und Euphoriker zu spalten. Beides sei nicht zielführend.
Den ersten Lacher gibt es – ganz unmoralisch – als ein Mann mittleren Alters an das Saalmikro tritt und über die ethischen Dilemmata des „autonomen Fahrens“ resümiert: „Wir legen unsere Daten in die Hände eines Profitkonzerns. Das finde ich viel interessanter und problematischer als die Frage, ob von der Straßenbahn jetzt ein oder zwei überfahren werden.“ [frei zitiert] Wird es mal zäh in der Diskussion wissen auch die Moderierenden und Referenten geschickt Witziges einzustreuen. So erfährt man beispielsweise, dass „autonomen“ Fahrzeugen in der Vergangenheit gezielt Mut antrainiert wurde. Sie standen vorher teils minutenlang an Kreisverkehren, weil sie sich nicht „trauten“ einzufahren. Diese humoristischen Momente waren aber nur von kurzer Dauer. Die Veranstaltung war in der Gesamtheit eben keine für Technikfanatiker, sondern für Menschen, die sich fragen, welche ethischen und normativen Rahmen, eine solche sich rasant entwickelnde Hochtechnologie brauch – das ist eben eher hochkomplex und nüchtern als plakativ und humoristisch.
Für all diese Fragen gab es dann am Nachmittag der Tagung das Forum A „Selbstfahrende Autos“. Während in anderen Sälen darüber diskutiert wurde, wie Ethik und Moral mit einer Drohne, die ihre Ziele eigenständig aussucht, zerstört und tötet, korrelieren oder inwiefern eigentlich die Unantastbarkeit der Menschenwürde noch gewährleistet ist, wenn alte Menschen bald nur noch zu Künstlicher Intelligenz Kontakt haben. Währenddessen waren über 100 Teilnehmer sehr interessiert an Dr. Joachim Damasky und Reinhard Merkel. Hinter den für viele unbekannten Namen verbergen sich der Geschäftsführer der Abteilung „Technik und Umwelt“ des Verbandes der Automobilindustrie und ein renommierter Hamburger Professor für Staatsrecht und Rechtsphilosophie. „Wir sind, was das autonome Fahren angeht, sehr konservativ.“, gab Damasky recht schnell zu verstehen und meinte damit die Automobilindustrie. Gäbe es in Deutschland ein oder gar zwei erste Verkehrstote durch autonomes Fahren, könne man die gesellschaftliche Akzeptanz für immer vergessen. Ich hake nach: „Was würden Sie denn Leuten entgegnen, die meinen: Die Autoindustrie hat gar kein Interesse am autonomen Fahren, weil in der Konsequenz wesentlich weniger Fahrzeuge benötigt werden, da ein Auto plötzlich fast 24 und nicht nur eine Stunde am Tag in Benutzung sein wird. Sie stünden nicht mehr unnötig rum. Man ruft morgens die App auf und in 3 Minuten steht das Auto vor der Tür.“ Die Frage lächelte er zunächst weg. „Ein klares Ja! Wir haben Interesse.“, erwiderte er dann. Autos seien heute im Schnitt 9,4 Jahre alt, die Industrie wolle ihre neuen Produkte auf den Markt bringen. Mehr Nutzung bedeute dann auch mehr Verschleiß usw.. Konkrete Zahlen konnte er allerdings nicht nennen.
Jedes Jahr sterben auf deutschen Straßen etwa 3.500 Menschen, weltweit 1,2 Millionen. 90% dieser tödlichen Unfälle sind auf menschliches Versagen zurückzuführen. Die Hoffnung: Diese 90% der Unfälle könnte ein vollautomatisierter Automobilverkehr vermeiden. Die Prognose: bis 2020 werden "autonome" Fahrsysteme bereits einen Großteil des Autobahnverkehrs prägen, während der unberechenbare, hektische Stadtverkehr, der voll ist von Straßenschildern, Ampeln, Rücklichtern, Fußgängern, Fahrradfahrern und vor allem sozialer Interaktion mit anderen Fahrern wohl erst in 15 Jahren allmählich vom Individualverkehr abrückt.
Die vermeintliche gesamtgesellschaftliche Dissonanz, die den berühmt-berüchtigten Tesla-Toten vom Juni 2016 skandalisiert, die 1,2 Millionen größtenteils durch menschliches Versagen verursachten Toten aber hinnimmt, erklärt uns Reinhard Merkel. Das Stichwort: „erlaubtes Risiko“. Eine Gesellschaft gewöhnt sich mit der Zeit an gewisse Risiken. Wäre Carl Benz 1886 zu Otto von Bismarck gegangen und hätte die Entwicklung des Automobilverkehrs skizziert – mit den 3.214 Toten im Jahr 2016 und den 19.193 Toten im Jahr 1970. Bismarck und die gesamte Gesellschaft hätten dieses Teufelszeug niemals akzeptiert geschweige denn gesetzlich zugelassen. Doch nun - über 130 Jahre später - ist der Tod von etwa 3.500 Menschen jährlich zu einem „erlaubten Risiko“ geworden. Es ist sehr unwahrscheinlich selbst unter diesen 3.500 Menschen zu sein, dass es sie aber geben wird, ist so sicher wie das Amen in der Kirche.
Die Automobilindustrie plane in den nächsten Jahren mit mindestens 14-18 Milliarden Euro an Eigeninvestitionen in das „autonome“ Fahren, so Damasky. Das ist nicht wenig, könnte aber angesichts gesamtdeutscher Forschungsausgaben in Höhe von 90 Milliarden Euro allein im Jahr 2015 auch wesentlich mehr sein. Doch trotz des selbstattestierten Konservatismus hat Damasky Visionen. Manche würden sagen: restriktive Visionen, wenn nicht gar repressive. Der Anschlag am Breitscheidplatz letzten Dezember wäre mit „autonomen“ Systemen nie passiert, so der Industrievertreter. Sie hätten verhindert, dass der LKW-Fahrer weiter Vollgas geben kann. Damasky sprach auch von Systemen, die den Fahrer schlichtweg daran hindern sollen, innerorts schneller als 50 km/h zu fahren oder riskante Überholmanöver zu tätigen, indem die Systeme konkret in die Lenkung eingreifen. Etwas positiver gewendet könne es aber auch darum gehen, dass die 70-jährige Großmutter – sollte sie Gas und Bremse mal verwechseln – von einer freundlichen Stimme erinnert wird, ob das starke Bremsmanöver bei einem dicht auffahrenden Fahrzeug wirklich eine so gute Idee sei. Damasky brachte zur Unterstützung seiner Überlegungen eine eindrucksvolle Zahl mit: jeder vierte Autofahrer ist schon mal am Steuer eingeschlafen.
Die ethischen Fragen, insbesondere die genuinen Dilemmata, sind besonders spannend, aber auch besonders kompliziert darzustellen. Es stellen sich Fragen, in welcher Art und Weise „autonome“ Systeme auf Dilemmata-Situationen reagieren (können) sollen. Beispiel: Eine Gruppe unaufmerksamer Kinder rennt über eine rote Ampel. Auf der anderen Seite wartet eine Mutter mit Kinderwagen. Das Fahrzeug kann nicht mehr rechtzeitig zum Stehen kommen, sondern sich nur noch entscheiden, ob es in die Gruppe Kinder oder die junge Mutter hinein rast. Mit solchen Fragen beschäftigt sich Reinhard Merkel. In dem als Weichenstellerfall bekannten „Trolley-Problem“, stellt sich die Frage, ob ein Weichensteller einen Zug so umlenkt, dass er 10 Menschen tötet oder einem anderen lediglich die Beine abfährt. Merkels These: Ein Mensch hat nicht die Entscheidungskompetenz, die Beine eines Menschen zu opfern. Und die betreffende Person X hat nicht die Pflicht, seine Beine opfern zu lassen. Merkels Lösung: Wir können Maschinen und Algorithmen Dinge machen lassen, die Menschen nicht so einfach dürften. Diese Dilemmata muss ein Algorithmus lösen, der die Problemstellung – wie im heutigen Individualverkehr – als fernes und erlaubtes Risiko begreift. In dem konkreten Moment dann wird keine Entscheidung mehr getroffen, sondern ein Programm abgespult. Denkt man das weiter, ergeben sich viel radikalere Problemstellungen: Es wird z. B. wesentlich absurder, wenn sich die Frage stellt, ob Dritte oder der Fahrer des „autonomen“ Fahrzeugs überleben. Merkel warf die offene Frage ein, ob es wirklich vertretbar wäre, „autonome“ Systeme so zu programmieren, dass oberste Priorität, die Unversehrtheit des Fahrers hätte. Ein Mann aus dem Auditorium gab zu bedenken: „Wer würde denn ein Auto kaufen in dem Wissen, dass es im Zweifel einen selbst und nicht andere umbringt?“ Darüber hinaus hob Merkel ein Novum hervor. Es trete mit dem „autonomen“ Fahren eine Situation ein, die es immer schwerer möglich mache, Verantwortliche zu finden. Das aber sei ein Urbedürfnis des Menschen – kommt jemand zu Schaden, brauch es Verantwortliche. Strafrechtlich sei das aber alles schwierig, die Schuldfrage - die tausenden Programmierer des Algorithmus, der Insasse des „autonomen“ Fahrzeugs, die Hersteller aller möglicherweise fehlerbehafteten Materialen, die etlichen Firmen, die innerhalb des vernetzten Fahrens unendlich große Datenmengen bereitstellen und aufbereiten? Der Tesla-Konzern wurde im Januar von US-Gerichten offiziell freigesprochen; gleichzeitig hat Volvo erklärt, sie übernähmen die Verantwortung, wenn in Zusammenhang mit ihren "autonomen" Fahrzeugen jemand zu Schaden käme. Also: Wer ist schuld im Falle eines Unfalls? Merkel kann diese Fragen – auch aus Zeitgründen - nicht endgültig klären. Ihm ist aber wichtig: Trifft man eine Entscheidung für ein abzuspulendes Programm (z.B. immer nach links ausweichen, wenn links nicht möglich ist, dann nach rechts ausweichen – so fordert es der Philosoph Richard David Precht), dann muss dieses Programm, dieser Algorithmus auch in der konkreten Situation der menschlichen Kontrolle entzogen und damit der Mensch seiner Verantwortung beraubt werden.
Dem aufmerksamen Leser fiel auf: der Begriff der „Autonomie“ war nun bewusst immer mit Anführungszeichen versehen. Geschuldet ist das sowohl dem mit viel Applaus gewürdigten Vortrag der Schriftstellerin Thea Dorn zum Ende der Tagung als auch einer linguistischen Überlegung. Sie, Thea Dorn, wolle dieses Wort – autonom - nicht verwenden. Autonom seien diese Systeme für sie erst, wenn sie morgens frei entscheiden könnten: „Ich fühle mich nicht wohl als selbstfahrendes Auto, ich werde jetzt Pflegeroboter.“ Autonomie sei etwas Urmenschliches. Genau wie der Begriff des Lernens. Laut Dorn ist das was wir mit den Systemen machen, vielmehr ein Training, keine Lernmaßnahme. Sie sind nicht autonom, sondern maximal vollautomatisiert. Der künstliche Intelligenz fehle noch vor allem eines: ein Gewissen. Dorn prägt die Skepsis. Sie befürchtet, dass eine Situation eintritt, in der der Mensch irgendwann „die nervigere, langsamere, schlechter zu upgradende Version einer Maschine“ ist. Sie bemüht den Aufklärer Immanuel Kant und führt seinen Leitspruch ins 21. Jahrhundert: „Habe den Mut und den Verstand, dem vollautomatisierten System zu wiedersprechen.“ Damit ging Dorn auch auf Kagermann ein, der am Vormittag davon sprach, dass der zu zahlende Preis für "autonome" Systeme sei, dass nicht mehr einsehbar ist, wie sie ihr Ziel erreichen.
Und die lingustische Überlegung? Interessant an dem Begriff des "autonomen" Fahrens ist, dass unser heutiger Individualverkehr das im eigentlichen Sinne autonome Fahren ist. Wir sitzen am Steuer, wir beschleunigen und bremsen, wir blinken und schalten, können entscheiden, ob wir anhalten oder weiterfahren. Nehmen uns intelligente Systeme diese Handlungsoptionen ab, landen wir bei einem völlig anderen Fahren: dem heteronomen. Wir sind aber bereits so technikaffin, dass wir uns schlichtweg in die Maschine hineinversetzen und eine eigentlich heteronome Erscheinungsform plötzlich "autonom" nennen.
Zum Schluss noch etwas völliges anderes: „Wie intelligente Maschinen uns verändern“ – so der Titel der Veranstaltung. Die damit einhergehende, im Detail noch sehr schwer einzuschätzende Umstrukturierung des weltweiten Arbeitsmarktes schwebte stets im Raum, wurde allerdings zumeist nur in Nebensätzen abgehandelt. Eine Sozialdemokratin der Hamburger Bürgerschaft versuchte am Vormittag über das Saalmikro das bedingungslose Grundeinkommen in die Debatte zu bringen. Erfolgreich war sie damit aber leider nicht. Schade.
Kommentare 10
Es ist fuer mich immer wieder erstaunlich, dass heutige Philosophen (die sich wohlklingende Berufbezeichnungen ankleben) mit Kategorien des 18. und 19. Jahrhunderts die kapitalistische Realitaet des 21.Jahrhunderts beurteilen.
Hybris kann man's nennen oder konsequenzenlose Wichtigtuerei.
Kannst Du das bitte etwas konkreter machen?
Philosophie stellt doch die Fragen (sollte sie jedenfalls), die nicht dem Funktionalismus unterworfen ist (oder auch dem sogenannten Zeitgeist). Die hier zu diskutierenden Inhalte (Begriffe) sind keine, die nicht bereits in der Philosophie behandelt wurden, nur, es ist halt zu checken, inwieweit sie aus dem alten Kontext ohne Aktualisierung noch übertragbar (anwendbar) sind.
Da wären: Freiheit, Autonomie, Verantwortung, Gerechtigkeit, Schuld, Intelligenz (Person), um nur ein paar zu nennen.
Gute Frage.
Fragen ... die nicht dem Funktionalismus unterworfen ist (oder auch dem sogenannten Zeitgeist)
Aus dem "Zeitgeist", d.h. der Gegenwart auszusteigen, diesen Luxus leistet sich die Philosophie und genau das kritisiere ich.
Die von Dir genannten Kategorien sind eben nicht "ungesellschaftlich", unhistorisch oder "unhintergehbar", wie gern geglaubt wird. (Will ich jetzt nicht im Einzelnen diskutieren.) Sie haben ihre gesellschaftliche "Sprengkraft" laengst verloren. (Im marketing sind sie immer noch beliebt...) (Verantwortungs-Ethik beispielsweise spielt in Aufsichtsraeten keine Rolle. shareholder value ist viel interessanter.)
Nee, heute geht's um sowas wie Fortschritt, Wachstum, Innovation, Neuromorphe Systeme, Lebensverlaengerung etc. das sind heute positiv besetzte Begriffe (das wird den Leuten zumindest eingeredet).
Um beim Thema des Beitrages zu bleiben.
Heute geht's doch darum zu klaeren, unter welchen Bedingungen autonome Systeme "kippen" koennen und wohin.
Ob diese Systeme den humanistischen Vorstellungen des 18, Jahrhunderts genuegen oder nicht, ist eine rein akademische Frage.
In den alten Zeiten, konnte man sich die "Ambivalenz der Freiheit" oder die "Relativitaet von Schuld" noch nicht vorstellen.
Heutige Realitaeten kann man nur mit den industriegesellschaftlichen Erfahrungen der letzten 200 Jahre beurteilen. Die Begrifflichkeit der Aufklaerung passen zu den statischen Gesellschaften, die Ende des 18. Jahrhunderts kritisiert und gekippt wurden.
Gut, die Philosophie ist aber nicht stehen geblieben und ist halt komplexer geworden, was auch damit zu tun hat, dass sie sich ständig bemüht, den vor allem technisch-ökonomischen Entwicklungen hinterher zu hecheln.
Shareholder Value ist ein angloamerikanischer Finanzmarktbegriff, der sich in die Gehirne als eigener Wert eingenistet hat, als ob sich unser Wirtschaftssystem jenseits aller Moral bewegen könnte.
"Autonome Systeme" haben sich nach den Vorstellungen zu richten, die wir unseren Erzeugnissen zubilligen wollen. Wenn wir allerdings das Maß (Wert) menschlicher Qualitäten in Richtung maschineller verschieben, dann geht natürlich auch nach und nach das bisher menschliche in maschineller Funktionalität ein (unter). Dann verschwinden auch die Grenzen durch maschinelle Adaptionen in den menschlichen Körper, sodass ab einem bestimmten Grad der "Verschmelzung" die heutige SF die Praxis erreicht.
"In den alten Zeiten, konnte man sich die "Ambivalenz der Freiheit" oder die "Relativitaet von Schuld" noch nicht vorstellen."
Das ist aber keine Begründung dafür, die Philosophie mit ihren verschiedenen Disziplinen zu ignorieren. Ich halte die Notwendigkeit des reflektierenden Denkens über die uns von der Industrie als unabdingbar vorgesetzten Produkte für unverzichtbar.
Es wäre eher zu fordern, bevor überhaupt die Weichen für völlig neue Entwicklungen gestellt werden, dass sich die Gesellschaft die Zeit nehmen sollte (muss), ob der Schalter so umgelegt werden soll oder nicht. Das hätte wohl in der Konsequenz auch die Atomindustrie verhindert, zumindest auf der Basis der für das Militär zugeschnittenen Spaltprodukte.
Die Aufklärung bedarf eben einer Erneuerung, die sich wieder auf die eigentlichen menschlichen Werte besinnt (oder neue findet?) und sie in erweiterter Fassung als Fundament des technischen Fortschritts beibehält.
Es liegt weniger am fehlenden Potential der Philosophie, dass das nicht gelungen ist, sondern an den sich beschleunigenden Entwicklungen, denen wir uns mehr oder weniger freiwillig unterworfen haben (Systemeigenschaften). Diese selbst gesetzten Zwänge gehen dann auch noch als Fortschritt durch!
Ich bin alles andere als ein Technikfeind, aber wenn Technik zum Selbstzweck und nicht mehr als Mittel gesehen wird, dann sollte schleunigst heruntergeschaltet werden. Ob wir noch so „autonom“ sind? Anders, ob der Wille zum Überdenken in der Breite überhaupt noch vorhanden ist?
>>Dann verschwinden auch die Grenzen durch maschinelle Adaptionen in den menschlichen Körper, sodass ab einem bestimmten Grad der "Verschmelzung" die heutige SF die Praxis erreicht.<<
Dann können sich Leute den Kopf zerbrechen über der Frage, wieviel org der Cyborg enthalten muss um rechtlich als "Mensch" definiert werden zu können, und wieviel cyb, um als „Android“ zu gelten.
Das wird das Genderspektrum noch ein wenig bunter (unübersichtlicher) machen . :-)
Sorry, ich habe Deine Replik nicht gesehen, weil Du sie als allgemeiner Kommentar geschrieben hattest. (Ts, ts, ts)(ich konnte mir aber nicht vorstellen, dass Du nicht reagieren wuerdest und habe deshalb mal nachgesehen... Man kennt sich. Auch gut.)
sie [die Philosophie] sich ständig bemüht, den vor allem technisch-ökonomischen Entwicklungen hinterher zu hecheln.
Wenn Ph. doch nur hinterherhecheln wuerde. Wenns um Mensch und Computer geht (da faellts mir besonders auf, das mal mein "Gebiet" war) hoere und lese ich seit den 90er Jahren immer wieder die gleichen Argumente.
Shareholder Value ist ein angloamerikanischer Finanzmarktbegriff, der sich in die Gehirne als eigener Wert eingenistet hat, als ob sich unser Wirtschaftssystem jenseits aller Moral bewegen könnte.
Genau darum geht's. Wenn man S.V. eben nur moralisch kritisiert, wird das als "predigen" ignoriert. Wenn man dagegen das gesamt System der Verteilung des Mehrwerts kritisiert (z.B. die Bewertung von Arbeit als "Kostenfaktor") wird die anscheinend "selbstverstaendliche" neo-con-Ideologie sichtbar.
Du siehst, inhaltlich unterscheiden wir uns gar nicht so doll. Ich haetts nur gern, das philosophes Argumentieren nicht als "predigen" abgetan werden kann. Darum muss diese Disziplin praktischer werden und beispielsweise systemtheoretisch argumentieren. (darum das Beispiel S.V.)
"Autonome Systeme" haben sich nach den Vorstellungen zu richten, die wir unseren Erzeugnissen zubilligen wollen.
Machen die "Systeme" nicht und ihre Konstrukteure schon gar nicht.
Es wäre eher zu fordern, bevor überhaupt die Weichen für völlig neue Entwicklungen gestellt werden, dass sich die Gesellschaft die Zeit nehmen sollte (muss), ob der Schalter so umgelegt werden soll oder nicht.
Das genau passiert nicht, weil die philosophische Argumentation der technisch-kapitalistisch-sozialen nicht "standhaelt".
Die Aufgabe der Philosophie waere es, die Ursache ihres eigenen "Versagens" selbstkritisch zu untersuchen. (Die philosophischen Instrumente dafuer etwa Phaenomenologie.) Aber genau das unterbleibt, das zeigt mal wieder der hier verhandelte Kongress.
Anders, ob der Wille zum Überdenken in der Breite überhaupt noch vorhanden ist?
Der Wille fehlt natuerlich. Und warum? Und wie kann man das aendern? Die Philosophie hat m.E. eine "Bringeschuld" und muesste ueberzeugen, dass "Ueberdenken" notwendig ist.
Du siehst meine Kritik an der Philoophie ist ein "Aufruf" zur Selbstkritik der Folgenlosigkeit der Disziplin. Diese Forderung ist auch nicht neu. Wird aber seit ca. 150 Jahren immer wieder zurueckgewiesen.
Sorry, sollte natürlich unter deinem Kommentar hängen.
Es kann wohl nicht erwartet werden (vielleicht auch zuviel verlangt?), dass in der Forschergemeinde der exakten Naturwissenschaften zumindest ein Basiswissen der Erkenntnistheorie vorhanden ist, zudem ethische Fragen kein Fremdwort sein sollten.
Es gab (und gibt sie auch heute noch) die Naturwissenschaftler, die wie Schrödinger, Heisenberg und Einstein zutiefst sich mit Erkenntnisfragen und auch der Moral beschäftigt haben, was vielleicht auch an den Schnittstellen liegt, die die führenden Physiker mit den Philosophen verbindet, wenn es um die letzten Fragen geht.
Aber vernünftiger, bzw. pragmatischer wäre es, wenn sich Philosophen in jeweilige Teilbereiche der Spitzenforschung hineindenken können (daraus weitere Entwicklungen antizipieren) und ihre notwendigen Gesichtspunkte einbringen, die eben die grundlegend menschlichen sind und die nicht (das wäre zu fordern!) abhängig sind von irgend welchen Interessengruppen der Industrie und deren Verbänden (auch keinen Pseudostiftungen wie Bertelsmann) und natürlich den Blick von außerhalb setzen können, sodass sie nicht der internen "Betriebsblindheit" unterworfen sind, bzw. den Funktionalitäten in der Sache.
Philosophie heute kann natürlich keine Systemphilosophie mehr sein, wie es große Denker wie Kant oder abschließend Hegel noch praktiziert (versucht) haben. Die existenziellen Probleme, die die Menschen aber heute betreffen, bedürfen einer adäquaten Beantwortung der Philosophen, die eben keine theoretische der Unis und "Kammern" mehr sein kann.
Aber dazu muss die Gesellschaft auch die entsprechenden Weichen stellen (also auch die Notwendigkeit erkennen), dass Philosophie kein Luxus ist und jenen auch die Bühne zur Verfügung gestellt werden muss (sowohl in den Medien als auch ggf. vor Ort), um überhaupt bemerkt zu werden.
Deine Anmerkung zur Selbstkritik der Philosophie lässt sich natürlich setzten (welchem Wissenschaftsbetrieb stände das nicht gut an!) und insbesondere aus der deutschen Denkertradition heraus ist es zu bedauern, dass der Einfluss geschrumpft und bekannte "Köpfe" rar sind. Das sind aber auch Gründe, die eben system-ökonomische sind und die geisteswissenschaftlichen Fragen in den Hintergrund gedrängt haben, obwohl gerade aus den Folgewirkungen der massiven Großtechniken die Geisteswissenschaftler gebraucht würden.
Ich meine nicht, dass die Philosophie eine der "Folgenlosigkeit" ist, denn es ist deren maßgebliches Ergebnis, was sich heute unreflektiert als Bewusstsein (eher Bewusstseinslosigkeit) gebildet hat, was Intellektuelle zu Agnostikern macht (jedenfalls die, die konsequent zu Ende denken) und die Sicht auf die Welt bestimmt insoweit, wie es sich in der Nichtmoral des angeblich neutralen ökonomischen Systems zeigt, dass nicht nur als reiner Mechanismus eines Marktes aufgefasst werden kann. (Philosophie muss also auch die Ökonomie verstehen.)
Unsere Denke orientiert sich mehr und mehr an sachbezogene Logik (und da, wo es angebracht wäre, fehlt es oft entschieden, um z.B. auf die aktuelle Gesetzgebung der vorbereitenden Privatisierung der noch öffentlich finanzierten Straßen hinzuweisen, die dann den Steuerzahler zur Kasse lässt), was eben kein Zufall, aber auch keine zwingende Folge der Industrialisierung ist, denn wenn wir das so stehen lassen, bestätigen wir die Skeptiker des menschlichen Freiheitsgedankens auf eine besonders skurrile Art und Weise, denn dann würden wir uns selbst determinieren, was aber ein bloßer Verzicht auf Freiheit wäre.
Dann allerdings bräuchte es auch keine Philosophie mehr, denn diese geht davon aus (jedenfalls was ich unter Philosophie verstehe), dass sich Mensch eben nicht in ein System fassen lässt und das macht eben seine Freiheit aus. Deshalb kann es auch kein geschlossenes System der Ethik geben.
Ist jetzt was länger geworden, aber das Thema ist auch wirklich interessant (für mich zumindest und wie ich immer wieder lese auch für dich).
Schau´ hier mal rein: Das künstliche Leben, aus digitale-sammlungen. Noch nicht gelesen. Du findest darunter frei zugänglich weitere philosophische Literatur.
Bei entsprechender Abfrage und Sortierung nach Preis findest Du auch hier, hier und hier kostenlose Angebote, um nur ein paar interessante Bücher aufzuführen, ideal für einen großen eReader.
Tja.
Hat sich halt alles was so in der Welt passiert, einmal um die eigene Achse gedreht. Der Dreck ist immer noch da und die Temperatur davon ist nur heißer geworden. Der wandernde Mülleimer fängt langsam das kochen an und die Leute werden dabei immer mehr Balabaladingdong im Kopf.
So kommt es das man meint die Roboter bekommen jetzt diese teuflischen roten Augen, damit man den eigenen Müll woanders hin verlagern kann und helfen tut das nichts. Der Müll wird halt immer mehr und mehr und .... ??? der Mensch bleibt beim schizophrenen Verhalten und verdreht über Wortgewandtheit alles so dermaßen, dass man nicht mehr weiß, wohin man sich noch orientieren kann und wo noch inspirierende Ideen Verbesserungen aufzeigen lassen, die man aber dann auch nicht will, da Sie einem nicht gefallen.
Warum hängen wir uns so sehr am autonomen herumfahren lassen auf!?. Wenn ich am Steuer sitze dann reagiere ich automatisch in Unfallsituationen so, dass ich auf mein Leben achte und alles andere existiert nicht. Das Gehirn schaltet von allein automatisch in diesen Modus.
Das andere, wie soll das gehen mit der Aufmerksamkeit von Menschen, die dann beim herumfahren lassen auf Straßen mit anderen Dingen beschäftigt sind und nicht auf den Straßenverkehr achten und schwupps jetzt sollen die in 3 Sekunden für Korrektur sorgen, bevor es zu einem Unfall kommt. Das geht nicht. Über so was brauche ich gar nicht zu diskutieren.
Vergleichen wir das mal mit dem Einkaufsverhalten. Es wird sofort nach einer neuen zu öffnenden Kasse gerufen, wenn 3 Menschen beim bezahlen auftauchen, da der Mensch als Kunde nicht mehr warten möchte. Genau darum geht es. Mit dieser Einstellung kann ich als Mensch in 3 Sekunden nicht mehr positiv in den Straßenverkehr eingreifen.
Es wächst woanders, wo wir es nicht vermuten.
Ein Bewusstsein in eine Zeit einhüllen. Es erneuert sich in angespannten und verspannten Vorteilbeschaffungsmaßnahmen, um Gelder für Arbeiten zu erhalten, die ohne dieser Gelder nicht möglich wären.
Die Frage ist, was will der Mensch glauben. Der Glaube ist hier ein guter Ausgangspunkt, da man hierbei soviel Schindluder treiben kann und die Vorstufe von Gewalt, wie auch Krieg darstellen kann. Es führt auch zu den im Beitrag hingewiesenen Ausgrenzungstaten, über neue kreierte Schichten in der Bevölkerung. Konzentriert in Zonen.
Wie kommt man da raus aus dieser Klassifizierung der Daten, wenn doch schon das Gesetz als Nebengesetz vorhanden ist, für solche Taten. Den geistigen wandernden Mülleimer kann man nicht zur Vernunft bringen und abkühlen. Den lasse ich für all die anderen, damit Sie ihn anfassen und sich ihren Glauben daran verbrennen können, um sich eine neu Orientierung aneignen zu können.
An was werden wir in Zukunft glauben wollen?
Alte Religionen, Alte Strukturen und alte Philosophien führen im Bezug zu den neuen Entwicklungen im Bewusstsein zu einem Trauma hin, da dies alles keine Übereinstimmung aufzeigt, außer man redet es sich passend zu recht. Vielleicht ist das die lösbare Ebene, die wir finden wollen. Glaube, Bewusstsein, Realität und Fiktion mit den uns gegebenen Sinneswahrnehmungen in Übereinstimmung zu bringen. Ein neues Gleichgewicht als, oder über Philosophie erzählen.
Und dann!?.
Es regnet nicht. Kein Wasser. Oder wenn es regnet die Sintflut und bei beiden Variablen gibt es in der Landwirtschaft kein Wachstum. Und wir haben auch bald kein Trinkwasser mehr durch Nitrat.
Wenn es mit der Nahrungsversorgung für Alle nicht mehr funktioniert, dann kommt die Gewalt.
Macht man deswegen die totale Überwachung der Bürger um Anzeichen von Kritik und Gewalteskalationen zu eliminieren!?.
Das ist dann das erneuerte Gleichgewicht zwischen der Realität und dem Tod durch Fortschritt über Innovationen in der Infrastruktur Arbeit und Verkehr.
So bin ich dabei, mich mal wieder neu zu erfinden. Das ist wichtig, damit die gesammelte Daten sich als falsch erweisen.
Das geht so richtig los, wenn mein Knie wieder fit für 5000 Meter laufen ist. Bewegen hilft beim neu erfinden, da es inspirierend wirkt.