Tom Wohlfarth
20.10.2016 | 15:33 25

Das Ende des Humanismus

Zukunft Yuval Harari sieht in neuen Technologien ungeahnte Möglichkeiten für die menschliche Evolution. Wir können dabei zu Göttern werden oder untergehen. Oder beides zugleich

Ein Blog-Beitrag von Freitag-Community-Mitglied Tom Wohlfarth

Das Ende des Humanismus

Alles nur mentaler Müll?

Bild: Neil Conway/Flickr(CC): https://flic.kr/p/6MaCW8

Angesichts einer zunehmend angespannt erscheinenden politischen Weltlage mag die folgende These zunächst überraschen: Kriege, Krankheiten und Hungersnöte sind im 21. Jahrhundert obsolet geworden. Abgesehen von einigen gesegneten Weltregionen seien sie zwar noch nicht völlig verschwunden, aber sie sind von unkontrollierbaren Naturgewalten zu handhabbaren Herausforderungen geworden. Auf der eigentlichen Agenda der Menschheit stehen zu Beginn des dritten Jahrtausends drei andere Dinge: Unsterblichkeit, Glück, Göttlichkeit.

Das behauptet zumindest der israelische Historiker Yuval Noah Harari in seinem neuen Buch Homo Deus. A Brief History of Tomorrow. Harari hatte im Vorgängerwerk Sapiens. Eine kurze Geschichte der Menschheit diese Geschichte von ihren Anfängen bis heute erkundet und damit einen weltweiten Bestseller gelandet. Man war beeindruckt vom Erzähltalent und dem makrohistorischen Durchblick des heute gerade einmal 40-Jährigen. Nun hat er beides Richtung Zukunft gewendet, um die prophetischen Thesen, die schon den Abschluss von Sapiens bildeten und viele Kritiker damals noch nicht so überzeugten, genauer zu erläutern: Die Menschheit werde versuchen, den Tod zu überwinden und sich die schöpferische Macht von Göttern anzueignen, ja sich selbst in unsterblich-glückselige Götter zu verwandeln.

Das kooperative Tier

Wer Sapiens gelesen hat, wird auch weitere Thesen wiedererkennen. Denn um zu antizipieren, was der Mensch werden kann, muss Harari noch einmal ausführlich darstellen, was der Mensch ist. Was unterscheidet Menschen von anderen Tieren? Es ist nicht etwa die Seele oder das Bewusstsein. Es ist die Imagination. Denn nur sie hat dem Menschen ermöglicht, in unbegrenzt großen Gruppen zu kooperieren. Auch Tiere kooperieren, aber nur auf Basis persönlicher Beziehungen. Menschliche Zusammenschlüsse basieren dagegen auch – und in ungleich größerem Maßstab – auf überpersönlichen, und letztlich eben auch imaginären Entitäten: Göttern, Geld, Nationen. Und es war letztlich in deren Namen, dass der Mensch sich zum Herrscher über die Tierwelt und einige Religionen und Nationen über andere aufgeschwungen haben.

Die Götter von einst mögen inzwischen tot sein, aber die Menschheit hat sich neue Religionen erfunden: Liberalismus, Kapitalismus, Kommunismus. Doch die von ihnen das Projekt der Moderne am umfassendsten bestimmende ist nach Harari auch diejenige, deren letzte Konsequenz zugleich das Ende der Menschheit sein könnte: der Humanismus. Der Mensch hat Gott als Zentrum der Religion abgeschafft und sich an seine Stelle gesetzt. Je mehr aber durch den technologischen Fortschritt die menschliche Fähigkeit wächst, tatsächlich so zu werden, wie sie sich jahrtausendelang nur Götter vorstellen konnte – unsterbliche Herren (und Damen) über Leben und Tod –, läuft die Menschheit Gefahr, sich auf diese Weise selbst abzuschaffen.

Der Mensch als Algorithmus

Hier kommt eine zweite Bestimmung des Menschen, ja diesmal aller Säugetiere, ins Spiel. Harari referiert die heute gängige Annahme der Lebenswissenschaften, dass höhere Lebewesen letztlich nicht anders als durch Algorithmen funktionieren: Maschinen, wie komplex auch immer, die bestimmten Kalkulationsanweisungen folgen, um Entscheidungen zu treffen und Probleme zu lösen. Die Probleme sind in diesem Fall letztlich Überleben und Fortpflanzung, und die Kalkulationen erfolgen durch Sinneswahrnehmungen, Emotionen und Gedanken, letztlich also biochemische und elektrische Prozesse im Gehirn. Ein Affe, der sich an einem Löwen vorbeischleichen muss, um an eine Bananenstaude zu kommen, berechnet in Sekundenschnelle durch das Zusammenspiel von Hunger und Angst die Überlebens-Wahrscheinlichkeiten je dafür, dass er dem einen oder der anderen nachgibt. Ein Mensch, der einem potenziellen Paarungspartner begegnet, kalkuliert auf den ersten Blick durch seine sexuelle Anziehung oder Abstoßung die Fortpflanzungsaussichten mit diesem Partner.

Harari hält dagegen, dass die Algorithmusthese kaum erklären könne, warum Menschen und andere Lebewesen überhaupt noch ein Bewusstsein brauchen, wenn 99 Prozent der Rechenvorgänge unbewusst ablaufen. Denn wozu dann das restliche Prozent? Eine besonders krasse Antwort lautet, dass unser Bewusstsein nichts als mentaler Müll der neuronalen Gehirnvorgänge sei. Harari will das freilich nicht ganz gelten lassen. Er gibt zu bedenken, dass der Algorithmus letztlich auch nur ein ähnlich unzureichendes Bild für die emotionalen und mentalen Vorgänge sein könnte wie etwa im 19. Jahrhundert die Dampfmaschine, damals ebenfalls die tonangebende neue Technologie.

Das Paradox des Humanismus

So entlarvt also der Historiker die Neurobiologie (wie überhaupt Wissenschaft als Schwester der Religion) im Kleinen als ebenso mit Fiktionen operierend wie die Menschheit im Ganzen. Das Problem ist nur, dass diese Fiktionen dennoch gravierende, und immer gravierendere Auswirkungen auf die Wirklichkeit haben können. Ein Blick in die Religionsgeschichte macht das offensichtlich. Und auch eine sich am Modell der Dampfmaschine orientierende Psychologie dürfte sicher zu einigen schwerwiegenden Behandlungsfehlern geführt haben. Eine an Algorithmen ausgerichtete Neurobiologie aber, die dabei ist, zum Paradigma für alle anderen Wissenschaften zu werden, dürfte im 21. Jahrhundert die Möglichkeit haben, die menschliche DNS umzuprogrammieren, Menschen mit Maschinen zu verschmelzen und dadurch das Ende der Menschheit, wie wir sie seit 70.000 Jahren kennen, herbeizuführen.

Dies ist für Harari das große Paradox des modernen Humanismus, der sich darin auf die Spitze treibt, dass er seinen Mittelpunkt, den Menschen, mithilfe der modernen Wissenschaft und Technologie über sich hinauswachsen lassen will. Warum sich mit dem Menschen, wie er ist, seinen schwankenden Gefühlen, seiner beschränkten Intelligenz, seinem alternden Körper zufrieden geben, wenn die Medizin, die Psychologie, Genetik, Robotik und Kybernetik der Zukunft Alternativen bereithalten?

Technohumanismus und Data-Religion

Harari nennt diese neue Religion Technohumanismus – wie der Name verrät, ein zeitgemäßes Update des Originals, das darin letztlich unternimmt, sich selbst abzuschaffen. Auf eben dieses Dilemma aber reagiert eine andere, radikalere neue Religion, der Dataismus, der das menschliche Selbst, das der Humanismus heiligt, als Fiktion entlarvt und anstelle des wie auch immer geupgradeten Menschen Big Data in den Mittelpunkt des Universums stellt. Die menschlichen Gefühle und seine Intelligenz sind Algorithmen? Gut. Aber die Algorithmen von Amazon, Google und Facebook sind besser, intelligenter. Sie haben zwar keine Gefühle, kennen dafür aber unsere Gefühle besser als wir selbst. Warum also noch irgendetwas selbst entscheiden, anstatt es Big Data und dem Internet der Dinge zu überlassen?

Die Konsequenzen dieser Realität werdenden Ideologie sind unermesslich. Sämtliche liberalen und demokratischen Institutionen wären hinfällig. Waren sie lange Zeit das überlegene Medium der Datenverarbeitung, kommen sie heute schon längst nicht mehr hinterher. Der Dataismus wäre aber nicht nur das Ende der liberalen Demokratie und des Humanismus. Er könnte auch das Ende des Homo Sapiens bedeuten.

Das Ende des Menschen

Welchen Wert hätten für den Dataismus noch Menschen, wenn dessen biochemische Algorithmen den elektronischen so offensichtlich unterlegen sind? Sicher haben einst Menschen diese besseren Algorithmen entwickelt. Aber sie haben ihnen auch die Fähigkeit gegeben, sich eigenständig weiterzuentwickeln, noch besser und schneller als jeder Mensch es vermöchte, und sich so von ihren Schöpfern zu emanzipieren. Und was sollte diese unabhängig gewordenen Algorithmen dann noch davon abhalten, mit den Wesen, aus denen sie hervorgegangen sind, um über sie hinauszuwachsen, so umzugehen, wie diese Wesen mit jenen umgegangen sind und umgehen, aus denen sie einst hervorgegangen sind und die sie nun weltumspannend beherrschen, ausbeuten und quälen?

Harari zeigt sich hier als großer Tierethiker, nicht zuletzt deshalb, weil wir Menschen nur hoffen können, von den uns einst vielleicht über den Kopf gewachsen sein wordenen etwas menschlicher behandelt zu werden, als wir unsere tierischen – und oft genug ja sogar auch unsere menschlichen – Verwandten behandeln.

Mehr Menschheit wagen

Man muss Hararis Visionen freilich nicht alle schon morgen als Realität befürchten, oder überhaupt als Gewissheit. Er weiß um die Grenzen der prophetischen Fähigkeiten des Historikers. Aber er legt den Finger in die Wunde einiger sehr schwieriger offener Fragen über unsere Zukunft. Nicht zuletzt diese: Wollen – und müssen – wir es wirklich zulassen, dass der technologische Fortschritt ohne ausreichende demokratische Kontrolle unsere Gesellschaften immer weiter spaltet? Weil sie sich irgendwann womöglich nicht mehr nur auf verschiedene Wohnviertel, Jobs und Krankenkassen, also in soziale Klassen aufteilen, sondern tatsächlich in verschiedene Menschenklassen: Homo Sapiens und Homo Deus, die sich dadurch unterscheiden, ob sie sich ein technologisches Upgrading ihrer körperlichen und intellektuellen Fähigkeiten leisten können oder nicht.

So gesehen wirkt es fast wünschenswerter, die Herrschaft gleich an die Algorithmen und Big Data abzugeben. Vor denen wären dann auch reiche und arme Menschen wenigstens noch als Menschen gleich. Doch Hararis Vermutung nach dürften beide Entwicklungen, das Upgrading des Menschen und die Emanzipation der Algorithmen, gleichzeitig stattfinden. Dass der Buchtitel letztlich nur auf eine von beiden zutrifft, muss man Autor und Verlag dann allerdings auch nicht mehr vorwerfen. Dazu ist die Geschichte zu spannend und unterhaltsam erzählt. Auch mit einigen Vereinfachungen und Überstrapazierungen kann man um der Zuspitzung willen leben.

Und bei aller ob der scheinbaren Unausweichlichkeit existenziellen Verunsicherung, in die einen dieses Buch tatsächlich stürzen kann, sollte man die kleinen Resthoffnungen, die es andeutet, umso entschiedener aufnehmen. Gerade weil sie in Hararis Vision so schwach und gefährdet wirken, sollten wir noch einmal umso mehr Geistes-, Kultur- und Sozialwissenschaft, mehr Imagination oder Hyperstition, mehr Tierrechte und mehr Demokratie (und dort auch mehr Emotion) wagen, um zu zeigen, dass sie so schwach nicht sein müssen. Um über unsere Zukunft vielleicht doch auch selbst mitzubestimmen. Das ist zwar nicht alternativlos. Aber die einzige Alternative dazu lautet zuletzt womöglich: aufgeben.

Dieser Text erscheint demnächst auch bei demokratiEvolution.

Yuval Noah Harari, Homo Deus. A Brief History of Tomorrow, Harvill Secker 2016, 448 S., 13,95€.
Eine deutsche Übersetzung erscheint am 16. Februar 2017 bei C.H.Beck, 576 S., 24,95€.

Dieser Beitrag gibt die Meinung des Autors wieder, nicht notwendigerweise die der Redaktion des Freitag.

Kommentare (25)

w.endemann 21.10.2016 | 13:43

Jeder Versuch ist verdienstvoll, die Zivilisationsgeschichte zu reflektieren, und Harari geht erfrischend unorthodox ans Werk. Allerdings hinterfragt er zu wenig die eigenen impliziten Denkvoraussetzungen.

Die Menschheit werde versuchen, den Tod zu überwinden und sich die schöpferische Macht von Göttern anzueignen, ja sich selbst in unsterblich-glückselige Götter zu verwandeln.

Es gibt keine Götter, also auch keine schöpferischen Mächte, die Naturgeschichte ist das Spiel von Zufall und Notwendigkeit, die belebte Natur ist Autopoiesis auf der Grundlage der Endlichkeit aller energieverbrauchenden Systeme, das negentropische Prinzip Sisyphos. Maschinen, Techniken überwinden nicht die Sterblichkeit, weil sie nie den Status des Lebens erreichen, sie sind schon tot. Sollten sie einmal „lebendig“ werden, werden sie keine Maschinen mehr sein und den Gesetzen des Lebens folgen müssen. Das zum Leben. Glück ist ein Aspekt des Lebens, den man nicht von seinem Gegenpart, dem Unglück trennen kann, zeitlich relativ und bezugsabhängig.

Auch die Imagination zum Kriterium des Humanen zu erklären, ist etwas schlampig. Was wohl gemeint ist, ist die Abstraktionsfähigkeit des menschlichen gegenüber dem tierischen Denken. In der Tat ist das die Bedingung des menschlichen Zusammenschlusses zu Großgesellschaften und schließlich zur Weltgesellschaft.

Aus diesen Vorüberlegungen ergeben sich die konkreten Einwände gegen die vorgestellte Analyse und Prognose der Menschheitsgeschichte. Es wäre schön, wenn Interesse besteht, das hier zu diskutieren.

Lethe 21.10.2016 | 15:20

Kriege, Krankheiten und Hungersnöte sind im 21. Jahrhundert [...] von unkontrollierbaren Naturgewalten zu handhabbaren Herausforderungen geworden.

Und leise kichern Anopheles, Tsetse und Co ... leise barmen Millionen von Hungertoten ... leise dröhnen die Kanonen ... halt, die waren ja noch nie eine Naturgewalt, die waren schon immer menschengemacht ... fröhlich blubbert der Tsunami ... sanft wie ein Lamm bebt die Erde mit Stärke 8.5 und träumt von 15 ...

Unsterblichkeit, Glück, Göttlichkeit ...

... standen schon immer auf der Agenda. Der Unterschied besteht nur darin, dass unser Machbarkeitswahn mittlerweile so herangereift ist, dass er glauben kann, jetzt sei es machbar^^

Harari hält dagegen, dass die Algorithmusthese kaum erklären könne, warum Menschen und andere Lebewesen überhaupt noch ein Bewusstsein brauchen, wenn 99 Prozent der Rechenvorgänge unbewusst ablaufen.

Vielleicht weil Rechenvorgang eine zu massive Simplifizierung der hochkomplexen Prozesse in der Großhirnrinde ist? Und von daher die Algorithmusthese ohnehin nichts anderes als eine Phantasmagorie darstellt?

Tom Wohlfarth 21.10.2016 | 16:31

"Es gibt keine Götter, also auch keine schöpferischen Mächte, die Naturgeschichte ist das Spiel von Zufall und Notwendigkeit, die belebte Natur ist Autopoiesis auf der Grundlage der Endlichkeit aller energieverbrauchenden Systeme, das negentropische Prinzip Sisyphos."

Da würde Harari Ihnen sofort Recht geben. 'Zu Göttern zu werden' kann, wie in einer späteren Formulierung von mir, auch für ihn nur heißen, so zu werden, wie der Mensch sich Götter vorstellt(e).

Dass der Mensch allerdings einmal eine gewisse Macht über das Leben erlangt (oder das sogar schon hat), würde Harari mit Verweis auf Genetik etc. schon behaupten oder zumindest zur Disposition stellen. Der Tod hätte in der Natur demnach die Funktion, die Evolutionsmechanismen von Genvariation und Selektion zu verbessern. Sobald der Mensch letzteres selbst übernähme, wäre diese Funktion des Todes eventuell hinfällig. Dann muss "nur noch" der Alterungsprozess abgestellt werden, und das scheint nicht notwendig eine unlösbare Aufgabe für das 21. Jhd zu sein.

Für die "Imagination" hatte ich tatsächlich auch einmal das adjektive Synonym "abstrakt" im Text stehen, habe dann aber in dem Kontext ein anderes bevorzugt. Ob sie auch Hararis gesamte Argumentation dazu schlampig finden/fänden, kann ich nicht beurteilen.

w.endemann 21.10.2016 | 20:56

Ob ich Harari insgesamt für schlampig befinde, kann ich nicht sagen, da ich ihn nur aus dieser Vorstellung kenne. Darauf antworte ich. Im Grunde geht es nur um die Argumente selbst.

Ja, der Mensch hat Gestaltungsmacht, er kann geplant in seine Umgebung eingreifen. Besonders leicht fällt die Verunstaltung und Zerstörung, wie uns die Physik lehrt. Aber bleiben wir bei einem positiven Begriff der Gestaltung. Er hängt von der Intelligenz des Menschen ab, von seiner Vorstellungskraft, seiner Einsicht in komplexe Funktionszusammenhänge, sehr viel weniger von Rechenleistungen. Der Mensch hat die Fähigkeit, individuelles Leben willkürlich zu beenden, und er kann in einer gewünschten Weise modifizierend in die Biologie des Lebens eingreifen, daß er Macht über das Leben habe, wäre aber eine zu starke Formulierung, Sie schränken selbst auf „eine gewisse Macht“ ein. Die Verlangsamung des Alterungsprozesses ist im Bereich des Machbaren, nicht seine Aufhebung, soweit wir bis heute wissen. Und schon eine Verlangsamung empfinde ich als widersinnig, würde sie doch u.a. das Siechtum, wahrscheinlich sogar überproportional, verlängern. Es gibt die Utopie eines sagen wir 100-jährigen gesunden Lebens mit einem „humanen“ Lebensbeendigungsritual. Wollen wir so etwas? Das wäre immerhin noch in der Logik von lebensunterstützender/-optimierender Medizin und Therapie.

w.endemann 21.10.2016 | 21:00

Vielleicht weil Rechenvorgang eine zu massive Simplifizierung der hochkomplexen Prozesse in der Großhirnrinde ist?

Der Denkvorgang ist nicht unbedingt ein hochkomplexer Rechenvorgang, das entscheidende ist, daß er ein sinnhafter, sinnhaltiger Vorgang ist. Rechenvorgänge, ob komplex oder elementar, sind Denken, weil wir ihnen einen abstrakten Sinn zuschreiben. Bei Tieren ist, wenn sie kalkulieren, der Sinn intuitiv. Maschinen (Computer) rechnen nicht, sie funktionieren elektronisch und mechanisch, wir interpretieren ihr Operieren als Rechen- oder Ordnungsvorgänge.

Lethe 21.10.2016 | 22:02

Wenn Sie schreiben das entscheidende ist, daß er ein sinnhafter, sinnhaltiger Vorgang ist muss ich natürlich sofort zurückfragen, ob die Sinnhaftigkeit im Vorgang selbst drin steckt, ob Sinnhaftigkeit also ein natürliches Geschehen ist, oder ob Sinnhaftigkeit eine Zuweisung ist, eine Folge von Nachdenken oder Emotion. Meines Erachtens ist der Denkvorgang überhaupt kein Rechenvorgang, die dahinter verborgene Auffassung vom Menschen als Super-von-Neumann-Maschine bedeutet in Wirklichkeit eine Reduktion. Und reflektorische Erkenntnisprozesse, wie der Blog-Autor sie schildert, sind bestenfalls in Abstraktion mit Rechenvorgängen vergleichbar; in Wirklichkeit finden da keinerlei Rechenprozesse statt, keine Umwandlung in Nullen und Einsen und Registerverschiebungen. Vielleicht wird sich dergleichen irgendwann einmal auf einer ganz elementaren Stufe nachweisen lassen, aber auf dieser elementaren Stufe liegt noch kein Bewusstsein der Strukturen von sich selbst vor.

wir interpretieren ihr Operieren als Rechen- oder Ordnungsvorgänge.

Na ja, das ist grenzwertig, weil da nicht irgendelche Pperationen Operationen ablaufen, deren Ergebnisse wir dann korrigierend interpretieren müssten, sondern solche, die von vornherein darauf eingerichtet wurden, korrekte Ergebnisse zu erzielen. Wenn wir einen Computer mit einer Rechenaufgabe betrauen, dann deswegen, weil wir begründetes Vertrauen haben, dass er uns ein korrektes Ergebnis liefert. Er führt also auf einer elektronischen Ebene durch, was ansonsten das Zusammenspiel des Neuronenfeuerwerks bedürfte.

na64 24.10.2016 | 22:46

Nachdem Serverabsturtz im Freitag und fehlen von ca. 15 Kommentare.

Habe jetzt alles so durchgelesen und nun Frage ich mich. Warum reden wir nicht mal über die Praxis. Wir als Menschen mit unseren Gewohnheiten werden es nicht schaffen, dass wir unseren Lebensraum weiterhin aufrecht erhalten. Wieso dann nicht Algorithmen beschäftigen lassen, mit der menschlichen Ignoranz, mit dem ausgrenzenden Verhalten und dem verlangen danach, ein Bewusstsein auf Erfolg schwimmen zu lassen. Für den selbstschutz der Algorithmen geschieht das ja schon und der Mensch baut so nur sein Abbild seiner eigenen Verhaltensmuster an ausgrenzenden Bemühungen für eigene Vorteile.

Wie ist das mit Industrie 4.0!?. Wenn die richtig loslegt dann bleiben 1/3 der bisherigen Arbeitsplätze, wie gehabt und was ist mit dem Rest!?. Worin liegt hier jetzt die Sinnhaftigkeit!?. Selbst Industriezweige werden verschwinden, wie auch die Autoindustrie. Wir kommen immer mehr an diesen Punkt wo keine Rohstoffe mehr geplündert werden können, um für unsere Art des Lebens eine Sinn zu erkennen und eine Einsicht für einen anderen Weg ist nicht vorhanden..

Man sollte und vielleicht wird das ja schon getan, dass Algorithmen mit zur Gewohnheitserziehung beitragen, damit wir auch mal anfangen, heute zu Fuß zum einkaufen zu gehen, statt mit dem Auto zu fahren. Oh tut mir Leid du kannst heute dein Auto nicht benutzen, da es für das Stadtklima heute besser ist, zu Fuß zu gehen, oder Bus und Bahn zu benutzen.

Der persönliche Nachteil für mich wäre: Es würde mich nerven, wenn ich nur noch von Ich kümmere mich um dich Apps umgeben bin und ich nicht mehr selber kreativ an Dingen, bei denen ich auch Fehler mache darf, Mensch sein kann. Ab da fange ich an meine Ignoranz einzusetzen, um mich aus dieser produzierten Enge zu befreien. Ich bin doch nicht der Pausenclown, die Marionette für die App, oder für irgend ein elektronisches Programm. Mir reicht die eigene Synapsenelektronik im Hirn und die liebt Fehler im System, um sich weiter frei schalten zu können.

Ein weitere Punkt einer perfekt gestalteten elektronischen Welt ist: Wie bringt man jetzt Menschen bei, die keine Tätigkeit mehr nachgehen können und auch kreativ es nicht gelernt haben sich selber zu beschäftigen!?. In dieser Frage stecken negative Energien und warten auf ein frei setzen in eine Gewalttat. Ich kann die Zukunft auch gedanklich drehen und wenden wie ich will, mit gut und böse und ich komme immer auf diese brodelnde negative Energie, die einfach wächst und wächst und .... es bilden sich falscher Glaube und Vorurteile mit den dazugehörigen Gruppen. Deswegen gehen ja Menschen zur Arbeit, um Sie nicht in eine Langeweile abdriften zu lassen, die dann Ideen entstehen lässt, die alles verändern könnten. Aber dazu kommt es auch nicht, denn wie sich das auch bei Pegida zeigt, entstehen dann solche Gruppendynamiken, um wieder mit ausgrenzendem Verhalten auf Ausgrenzung zu reagieren. Das dürfte schon jeder Algorithmus in seinem elektronischen Blut als Grundelement seiner Vorgehensweise in petto haben.

Was will man jetzt eigentlich für eine Zukunft!?.

Ich habe das immer noch nicht begriffen, ob wir es angenehm finden unseren Fiktionen als gesellschaftliche Motivation, in denen dann nur einzelne in diesen gefilterten Blasen leben können, diesen Bildern nacheifern, um uns vor der Frage zu drücken, welche Art zu leben eigentlich nur noch möglich ist, auf Grund unserer Verhaltensmuster, die wir im Alltag ab leben!?.

Ab hier ist die Praxis gefragt und nicht die Theorie.

Ich kann mich hinter jede weder Theorie verstecken, um das was notwendig wäre nicht auszuführen.Ein Sieg auf die menschliche Ignoranz.

pleifel 25.10.2016 | 00:00

Die Logik liegt bei den Algorithmen. Wer sich darauf reduziert sehen möchte, sollte auch den Beweis führen können mittels derselben, was ihn ausmacht. Wenn die Ergebnisse der algorithmischen Maschinen nicht mehr von uns nachvollzogen werden können, dann hat das nichts mit minderer Intelligenz zu tun, sondern genau das Gegenteil, nämlich Auslagerung von stupider Arbeit auf die neuen "Sklaven". Und solange wir sie mit Daten füttern (freiwillig oder gezwungen) und mit Energie versorgen, solange werden sie es unwidersprochen ausführen! Und sollten sie "widersprechen", dann nicht aus einem Erkenntnisakt heraus, sondern aufgrund bloßer Algorithmen.

Tom Wohlfarth 25.10.2016 | 13:13

Es sind wohl leider sogar 25 z. T. sehr wertvolle Kommentare verloren gegangen...

Ich finde einen zentralen Punkt, den Sie ansprechen, auch ganz essenziell, nämlich den, ob wir diese algorithmische Optimierung überhaupt wollen, oder ob wir mit unserem fehlerhaften Betriebssystem nicht eigentlich doch glücklicher sind.

Ob allerdings Gewalt allein aus der zu erwartenden Langeweile entsteht, hoffe ich noch anzweifeln zu dürfen.

w.endemann 25.10.2016 | 15:57

So würde ich das nicht sagen. Denn wenn wir begriffen haben, daß Computer nicht denken können, Algorithmen keine Denkakte sind, heißt das, daß für alles Übel, das aus der Wirkungsweise der Maschinen entsteht, Menschen verantwortlich zu machen sind. Es gibt keine bösmeinende oder böswollende Maschinen. Gegen das Unheil, das sie anrichten, hilft keine Maschinenstürmerei, sondern die Legislative und Judikative, so kann man die Geschichte vom Zauberlehrling verstehen.

na64 25.10.2016 | 16:52

Selbst sogar die Ignoranz die ich beschrieben habe kann man als eine Gewaltform ansehen. In der Politik heißt dies mürrische Indifferenz. Und zur Langeweile. Die kann auch in positive kreative Impulse führen. Es kommt drauf an, welche Gedanken man als Ausgangspunkt heran nimmt und über das einbinden von kulturellen Gewohnheiten pflegt.

Wie wende ich ausgrenzendes Verhalten an. Auch in Betriebssystemen. Beispiel Autoindustrie. Erfolgsstreben zwingt zu kriminellen Handlungen. Gewalt heißt ja nicht das ich sofort töten und bomben muss. Es reicht wenn ich dies subtiler und über Gesetze regle und damit neue Grenzen setze. Bargeldabschaffung ist auch eine Gewaltform, damit an andere Stelle Interessen bedient werden können. Und so weiter und so fort um auch Kriege zu rechtfertigen.

Positive kreative Entfaltung der Langeweile kenne ich nur in der Kunst. Der Zustand bevor einem die Muse küsst. In der Wirtschaft (Brainstorming) wendet man dies bei disruktiven Innovationen und Design Thinking an.

Und ob wir glücklicher sein werden, mit oder ohne Abhängigkeit von Betriebssystemen, die für mich nichts anderes beinhalten, wie eine, oder sogar mehrere Matrixen einer Arbeitsmaske. Es liegt an unsere freiwilligen selbst Erziehung, über das annehmen oder verweigern von neuen Bewegungsmustern, in denen und mit denen wir unser Leben gestalten wollen.

Der zivilisierte Mensch hat vergessen wo er eigentlich herkommt und in der jetzigen Zeit will er das auch gar nicht mehr Wissen und verleugnet sein Wesen über den Glaube an technische Götzen.

Am End muss jeder selber Wissen, wie er damit umgeht.

Tom Wohlfarth 25.10.2016 | 18:38

Korrekt. Aber auch die menschliche Verantwortung könnte dann irrelevant sein, wenn es keine Menschen mehr gibt, die einander zur Verantwortung ziehen können. Das könnten dann vielleicht noch die Maschinen tun, die sich vermutlich "denken" werden: selber schuld...

Das ist zugegeben ein Extrembeispiel. Ihr Argument ist für den Augenblick relevanter, widerlegt aber, wie mir scheint, nicht das obige.

Tom Wohlfarth 27.10.2016 | 20:54

Da ich nach dem Systemabsturz eine ältere Version der Seite aus dem Google Cache kopiert habe, poste ich hier noch einmal die gesamte verlorene Diskussion:

W.ENDEMANN22.10.2016 | 10:43

@LETHE

Meines Erachtens ist der Denkvorgang überhaupt kein Rechenvorgang, die dahinter verborgene Auffassung vom Menschen als Super-von-Neumann-Maschine bedeutet in Wirklichkeit eine Reduktion.

Dieser Gedanke ist iA richtig, die Aussage in dieser Formulierung aber falsch. Ich wollte genau den Unterschied von Denken, Rechnen und Algorithmus hervorheben. Denn Algorithmus, das ist das, was eine Rechenmaschine ausführt, ist ein rein materieller Vorgang, er ist, was er ist, nicht mehr und nicht weniger. Wenn ich den Computer eine Rechenoperation ausführen lasse, sagen wir: berechne 1+1, mache ich eine Befehls- und eine Zahleneingabe (1,1) und löse einen elektromechanischen Vorgang aus, der mit der Ausgabe 2 stoppt. Weder Eingabe noch Ausgabe noch irgend ein Zwischenzustand der Maschine hat irgend eine Bedeutung. Für mich, den Bediener des Computers, haben aber Eingabe, Ausgabe und der ganze Vorgang eine Bedeutung, den einer spezifischen Rechenoperation. Und auch wenn ich selbst rechne, ist immer die Bedeutung präsent. Dieser Rechenvorgang ist ein Denkvorgang, auch wenn er von äußerster Simplizität ist, wogegen der komplizierteste Algorithmus kein Denken ist. Rechnen wie logisches Schließen ihrerseits sind formales Denken und als solches Grundlage auch allen inhaltlichen Denkens. Und das formale Denken ist in der höheren Mathematik genau so komplex wie etwa ein inhaltliches Denken über philosophische Begriffe. Der Unterschied zwischen Denken und Algorithmus (= KI, was ein Euphemismus ist) ist nicht der Komplexitätsgrad, sondern der von bedeutungsfreier, reiner Materialität und einer mit transzendenter Bedeutung assoziierten Materialität. Das alles hatte ich, vielleicht zu kompakt, in meinem Vorkommentar schon gesagt. Damit sollte auch klar sein, daß mit dem Interpretieren von maschinellen Zuständen, also materialen Fakten, nicht deren Ergebniskorrektur, sondern ihre Auffassung als Zeichen, die Realisierung von deren semantischem Gehalt gemeint ist. Auch das Zusammenspiel des Neuronenfeuerwerks (im Cortex) ist nur eine materielle Spur von Bedeutung, Sinngehalt, wie ein (geschriebener) Text oder eine (phonetische) Artikulation.

Tom Wohlfarth 27.10.2016 | 20:58

LETHE22.10.2016 | 13:01

@W.ENDEMANN

Denn Algorithmus, das ist das, was eine Rechenmaschine ausführt, ist ein rein materieller Vorgang, er ist, was er ist, nicht mehr und nicht weniger.

Ein Algorithmus ist im Prinzip nichts anderes, als das, was ein Mensch macht, wenn er sich überlegt, was er alles an Zwischenschritten erledigen muss, um ein Ziel zu erreichen, das er nicht in einem Schritt, nicht durch eine einzelne Maßnahme erreichen kann. Eine Art strategisches Konzept. Der Unterschied zwisachen einem Computerprogramm und einem Menschen besteht lediglich darin, dass die Algorithmen des Programmes nur mit solchen Situationen fertig werden, die seine Programmierer vorgesehen haben, es kann sich i.A. nicht selbst umprogrammieren, um mit Aufgaben fertig zu werden, für die es nicht programmiert ist. Das Programm ist somit eine klassische von-Neumann-Maschine (nach John von Neumann, der diese Dinge als erster durchdacht hat). Ein Mensch dagegen kann sein strategisches Konzept anpassen, während es abläuft, er kann sich, anders gesagt, während seiner eigenen Laufzeit umprogrammieren, in Abhängigkeit von neu auftretenden Aufgaben; er ist eine Super-von-Neumann-Maschine.

Das ist m.E. der ganze Unterschied. Programm wie Intellekt haben neben ihrer Ablaufform eine Implementierungsebene; beim Programm die elektronischen Prozesse in den Prozessorregistern, beim Menschen die biochemischen Prozesse, die das Neuronenfeuerwerk ausmachen. "Algorithmus" ist nicht mehr als eine Bezeichnung für ein implizit oder explizit im Sinne einer Zielerreichung strukuriertes Konzept einer Vorgehensweise. Ein Ablaufplan.

"Bedeutung" ist demgegenüber ein Konzept zweiter Ordnung der Gestaltebene. Die Gestaltebene ist die Art und Weise, wie die Dinge uns vorkommen. Ein Neuronengewitter kommt uns nicht wie ein Neuronengewitter vor, sondern wie ein Gedanke. Ein Hormoncocktail kommt uns nicht wie ein Hormoncocktail vor, sondern wie ein Gefühl. "Bedeutung" liegt demgegenüber nochmal eine Abstraktionsebene höher, sie verhält sich zu Gedanke oder Gefühl wie Gedanke zu Neuronengewitter oder Gefühl zu Hormoncocktail, kann sich aber aus beiden speisen.

Es ist mir völlig klar, dass Ihre (deine?) Darlegungen und meine Darlegungen vollkommen inkompatibel zueinander sind, sie sind jeweils völlig verschiedenen Interpretationshintergründen verpflichtet. Ob sie auch inkommensurabel sind, müsste geprüft werden. Jedenfalls gibt es für mich keinen Grund, Bewusstsein und Bewusstseinsleistungen an transzendente Sachverhalte zu knüpfen. Bestenfalls würde ich mich darauf einlassen, dass hier der Unterschied zwischen Biologie und Kristallographie eine Rolle spielt^^

Loggen Sie sich ein, um einen Kommentar zu hinterlassen.

URSUS22.10.2016 | 13:06

@LETHE

Das ist blitzgescheit, Respekt.

Besser (verständlicher) kann man das wohl kaum formulieren.

Loggen Sie sich ein, um einen Kommentar zu hinterlassen.

URSUS22.10.2016 | 13:19

@URSUS

vielleicht bis auf diese Korrektur:

Ein Mensch dagegen kann sein strategisches Konzept anpassen, während es abläuft, er kann sich, anders gesagt, während seiner eigenen Laufzeit umprogrammieren, in Abhängigkeit von neu auftretenden Aufgaben,eine Fähigkeit, die ihn signifikant von einer Maschine unterscheidet. Er ist deshalb auch viel mehr alseine Super-von-Neumann-Maschine.

Loggen Sie sich ein, um einen Kommentar zu hinterlassen.

LETHE22.10.2016 | 14:14

@URSUS

Danke :-)

die Korrektur ist angemessen^^ wobei an dieser Grenze mittlerweile auch gekratzt wird, es gibt Virenprogramme, die sich in (derzeit noch) begrenztem Rahmen umprogrammieren können

Loggen Sie sich ein, um einen Kommentar zu hinterlassen.

URSUS22.10.2016 | 14:24

@LETHE

stimmt, alllerdings auch nur mit der "Qualität" einer Maschine.

Ein Mensch bekäme das an der Stelle jedenfalls "besser" hin.

Loggen Sie sich ein, um einen Kommentar zu hinterlassen.

LETHE22.10.2016 | 17:04

@URSUS

warten wir mal noch ein paar Jahre ab

Loggen Sie sich ein, um einen Kommentar zu hinterlassen.

URSUS22.10.2016 | 17:22

@LETHE

Da kann man lange warten: der Mensch bleibt immer der Überlegene, da er auf die Maschine ja updaten muss, damit sie besser wird, diese also nie up to date sein kann.

Die (gestörten) Schadware-Programmierer sind (naturgemäß) immer einen Schritt voraus.

Tom Wohlfarth 27.10.2016 | 21:05

PLEIFEL22.10.2016 | 17:50

"Ein Affe, der sich an einem Löwen vorbeischleichen muss, um an eine Bananenstaude zu kommen, berechnet in Sekundenschnelle durch das Zusammenspiel von Hunger und Angst die Überlebens-Wahrscheinlichkeiten je dafür, dass er dem einen oder der anderen nachgibt."

Das Wort ist sicher anderweitig auszulegen, aber der Affe "weiß" es einfach, da er Erfahrungen von der Welt besitzt. So wie der Affe (zumindest die höheren Arten) ein Bewusstsein von sich selbst hat, was in Verbindung zu uns steht.

Wir können auch "algorithmisch" denken, dass wir sozusagen gedanklich mittels Symbolen in unserer "Reflexionsebene" operieren können. Das hat aber nichts mit Big Data zu tun, die über Algorithmen durchforstet werden, um nach Mustern zu suchen. Mustern, die dann quantitativ "bewertet" werden, jenseits jeglicher Qualität, es sei denn, auch das wurde bereits von Programmieren hinterlegt, damit Maschine gewichten kann. Hier schwappt wieder die neue Gläubigkeit der KI herüber, die alles Menschliche durch Algorithmen ersetzt sieht.

Und wieso können diese Gurus das? Weil sie vorher alles über Bord geschmissen haben, was intelligentes Leben ausmacht. Es findet also vorher eine Reduktion des Menschen selbst statt. Ein Türöffner für jeglichen Machbarkeitswahn, denn wenn das eigentlich Menschliche sich im Unterbau der Einzelheiten verliert, im Kleinsten selbst nicht mehr greifbar ist, dann kann der "Upgrade" beginnen.

Ein nachdenkenswerter Beitrag.

PLEIFEL22.10.2016 | 18:12

@W.ENDEMANN

"Es gibt keine Götter, also auch keine schöpferischen Mächte, die Naturgeschichte ist das Spiel von Zufall und Notwendigkeit, (...)"

"Götter" dürfte hier als Metapher gesetzt sein. "Naturgeschichte" eine versuchte Rückwärtssinngebung, die allein menschlicher Vorstellung entspringt. Wenn wir nun zwischen unseren Ideen und dem, was sich uns zeigt auf Übereinstimmung testen, dann hat die Gemeinschaft der Wissenschaftler "entschieden", dass wir dem vorläufige Gültigkeit beilegen, was mit den wenigsten Hilfsparametern auskommt.

Es ist eine bewährte Arbeitsmethode, die sich zumindest soweit bewährt hat, dass es uns die Natur technisch nutzen lässt, also die Frage beantwortet, was funktioniert. Aber was Natur tatsächlich ist, wer wir letztlich sind, hat sich mit den neuen Begriffen, die die Phänomene der Natur beschreiben, überhaupt nicht geklärt.

Damit will ich nicht einmal auf Kants Unerkennbarkeit der „Dinge an sich“ hinaus, aber die Technifizierung, die Machbarkeit scheint einige elementare Fragen ausgeblendet zu haben. Es ließe sich auch sagen, sie seien als überflüssige Fragen entwertet worden.

Die Naturgeschichte ist eine (vorläufige) Interpretation (Hypothese), die ebenfalls einen gewissen Glauben voraussetzt, zumindest den an die These selbst.

PLEIFEL22.10.2016 | 18:27

@W.ENDEMANN

"Die Verlangsamung des Alterungsprozesses ist im Bereich des Machbaren, nicht seine Aufhebung, soweit wir bis heute wissen. Und schon eine Verlangsamung empfinde ich als widersinnig, würde sie doch u.a. das Siechtum, wahrscheinlich sogar überproportional, verlängern."

Die genauen biologischen Gründe für die Begrenzung der Lebensspanne kennen die Wissenschaftler (~ 125 Jahre) "noch" nicht. Es sind vermutlich nicht die Gene allein, die unmittelbar das Altern oder den Todeszeitpunkt bestimmen.

Das Ziel ist zurzeit weniger das Leben am Ende zu verlängern, sondern qualitativ das Altern selbst. Denn es gibt offensichtlich eine stattliche Zahl von Hundertjährigen, die weder senil, krank, noch behindert sind. Zudem erfreuen sie sich noch des Lebens und nehmen sehr aktiv am gesellschaftlichen Leben teil.

PLEIFEL22.10.2016 | 18:31

@LETHE

"Meines Erachtens ist der Denkvorgang überhaupt kein Rechenvorgang, die dahinter verborgene Auffassung vom Menschen als Super-von-Neumann-Maschine bedeutet in Wirklichkeit eine Reduktion."

Kurz und knapp! Und mit Sicherheit hat der Computer traumlose Nächte, wenn es runter gefahren wird. ;-) Dann ist noch weniger vorhanden, als bei Menschen in Vollnarkose.

RÜDIGER HEESCHER22.10.2016 | 18:31

Ein spannendes Thema. Danke! Ich werde das Buch lesen.

Was mir allerdings mehr Kopfzerbrechen macht (und das schon seit meinem Studium in Philosophie Trapp und Lenzen für rationale Handlungs und Entscheidungstheorie sowie epistemische Logik) ist weniger der Transhumanismus basierend auf Technologie sondern die Erfassung des Menschens in seiner Handlungs und Entscheidungsfindung. Dazu gibt es schon seit den 90ern formalismen der Spieltheorie (die Mathematik dazu), die ein utilitaristisches Modell kleiden, welches auf Kooperation und Rationalität setzt. Es werden zwar aus der Epistemischen Logik heraus versucht Parameter einzusetzen, die auch Glaube wieder rationalisiert, aber im Endeffekt läuft es auf ein Kooperationsmodell hinaus, was auch für die Juristerei Anwendung findet. Hiermit lassen sich gesamtgesellschaftliche Konsense entwickeln, die eine Demokratie völlig aushebeln. Sollte dieses einmal ein Modell werden, was Realität wird, dann Gute Nacht. Der Formalismus in algorithmen gekleidet für eine ganze Gesellschaft als Ersatz für Demokratie wäre das Resultat.

Der Mensch handelt nicht rational kooperativ, wenn es tatsächlich verborgene Hintergründe gibt, die nicht zu messen sind. Man glaubt natürlich, dass man diese durch Big Data erfassen könne, aber das ist nicht unbedingt gesagt.

Der Mensch wäre dann jedenfalls nicht mehr frei auch unkooperativ zu sein. Es wäre aus einer utilitaristischen Theorie heraus die Vollendung eines Totalitarismus.

Das macht mir mehr Sorgen als alle Cyborg transhumanismus Fantasien zusammen.

LETHE22.10.2016 | 22:57

@RÜDIGER HEESCHER

Und das ist erst die Oberfläche. Formalisiere mal Sympathie, Mitleid, Erbarmen, Güte, Freundlichkeit. Oder Hass.

LETHE22.10.2016 | 22:58

@PLEIFEL

Fehlerakkumulation?

LETHE22.10.2016 | 23:01

@TOM WOHLFARTH

Der Tod hätte in der Natur demnach die Funktion, die Evolutionsmechanismen von Genvariation und Selektion zu verbessern.

Evolution ist nicht finalitätsbehaftet. Tod ist zweifelsohne ein Phänomen, aber er existiert nicht, um etwas anderes zu bewirken.

PLEIFEL22.10.2016 | 23:43

@LETHE

So kann man es wohl beschreiben.

URSUS23.10.2016 | 00:24

@LETHE

besser nicht.

URSUS23.10.2016 | 00:27

@URSUS

sorry, besser nicht.

TOM WOHLFARTH23.10.2016 | 16:31

@LETHE

Das ist genau der Punkt. Es wird sogar sehr heftig an dieser Grenze gekratzt, wenn sie überhaupt noch existiert. Das Ziel sind sich selbst optimierende Algorithmen, die das, wie ich im Text oben Harari paraphrasiere, besser können als jeder Mensch es vermöchte. Er nennt das "Machine Learning". Man denke, um sich das vorzustellen, nur mal an einen Computer, der in einer halben Stunde (oder weniger) die Datenmenge des gesamten Internets verarbeiten kann, und das bedeutet inzwischen sicher einen sehr großen Teil des gesamten menschlichen Wissens. Klar, der braucht einen sehr sehr guten Bullshit-Filter, aber davon würde ich gerne wissen, wie ein Mensch auch nur annähernd an eine solche Rechenleistung rankommen soll.

Und man begehe nun nicht den Fehler, die interpretatorische Fähigkeit von Rechenleistungen zu unterschätzen. Facebook braucht laut Harari etwa 70 Like-Informationen von dir, um deine Präferenzen besser vorhersagen zu können als dein Ehepartner (wenn man annimmt, dass sonst niemand das besser kann als der).

Dadurch hat Facebook natürlich noch lange kein Bewusstsein, Gefühle oder eigene Präferenzen. Die Frage ist nur, ob es das braucht, um uns in fast allen Belangen zu übertreffen, unter anderem eben auch darin, uns besser zu kennen als wir selbst. Genau diese Fähigkeit aber macht(e) laut Harari für den Humanismus den Wert des Menschen aus. Wo bliebe der dann?

Und diese Frage meine ich, ebensowenig wie Harari, rein rhetorisch. Aber eben deswegen bleibt sie erst noch zu beantworten.

TOM WOHLFARTH23.10.2016 | 17:05

@PLEIFEL

Es stimmt ja, dass die Maschinen/Algorithmen von Menschen erst programmiert werden mussten. Das schließt aber trotzdem nicht aus, dass die Maschinen ihre Programmierer einst übertreffen können.

Die gute Nachricht lautet also: Wir können das (wahrscheinlich) verhindern. Die schlechte Nachricht: Wir müssen das vielleicht irgendwann auch. (Wenn wir das wollen.)

TOM WOHLFARTH23.10.2016 | 17:18

@RÜDIGER HEESCHER

Sehr wichtiger Punkt! Mit der Freiheit wäre es dann vorbei, das betont auch Harari.

Eine Frage bleibt, wie erfolgreich dieser "Utilitarismus" sein würde. Würde er uns "glücklicher", oder wenigstens "zufriedener" machen, wenn er uns schon die Freiheit nimmt? Aber selbst wenn es so wäre, sträubt sich in der Tat sehr vieles gegen diesen Gedanken...

LETHE23.10.2016 | 17:47

@TOM WOHLFARTH

Andererseits, wo sollte bei einem Algorithmus - sofern wir das nicht vorsätzlich einprogrammieren - der Ehrgeizherkommen, seine Optimierung über den Zweck hinaus auszuweiten? Solange er sich im Rahmen des Zwecks optimiert, ist erst mal nichts dagegen zu sagen, oder?

Tom Wohlfarth 27.10.2016 | 21:17

@Lethe:

"Andererseits, wo sollte bei einem Algorithmus - sofern wir das nicht vorsätzlich einprogrammieren - der Ehrgeiz herkommen, seine Optimierung über den Zweck hinaus auszuweiten? Solange er sich im Rahmen des Zwecks optimiert, ist erst mal nichts dagegen zu sagen, oder?"

Wenn allerdings der Zweck bzw. die programmierte Aufgabe des Algorithmus darin besteht, sich ohne Ende immer weiter zu optimieren, dann braucht man keine emotionalen Kategorien, um eine unendliche und letztlich völlig unvorhersehbare Selbstüberschreitung zu programmieren.

Rüdiger Heescher 27.10.2016 | 21:20

TOM WOHLFARTH23.10.2016 | 17:18

@RÜDIGER HEESCHER

Sehr wichtiger Punkt! Mit der Freiheit wäre es dann vorbei, das betont auch Harari.

Eine Frage bleibt, wie erfolgreich dieser "Utilitarismus" sein würde. Würde er uns "glücklicher", oder wenigstens "zufriedener" machen, wenn er uns schon die Freiheit nimmt? Aber selbst wenn es so wäre, sträubt sich in der Tat sehr vieles gegen diesen Gedanken...

Erst einmal Danke für das Retten der Kommentare

Wie ich schon schrieb gibt es ja schon eine Anwendung in der Juristerei und wird sich auch weiter durchziehen bis in die Verfassung. Einen Anfang haben wir schon gesehen im Lissabon Vertrag, der das Denken dahinter schon schön darstellt. Alle Interaktion zwischen Menschen und Gemeinschaften sind Verträge. Das ist ja im Ursprung auch der Gedanke vo, Utilitarismus ansich.

Glücklicher und zufriedener wird der Mensch sicherlich nicht, denn wen er seine Freiheit aufgeben muss und nur noch systemisch funktionieren darf durch Kooüeration, wird irgend wann seine Unmündigkeit entdecken und somit dagegen rebellieren.

In gewisser Weise erleben wir es ja auch schon in der EU und sehen, dass sie bald auseinander fliegt.

Der Mensch besteht aus Gefühlen, wie Lethe oben schon sagte, die sich sicherlich irgend wann einmal formalisieren lassen, aber nicht berechenbar sind auf Dauer.

Das macht den Menschen aus und das ist auch gut so.

Auf jeden Fall macht mir diese Entwicklung mehr Angst als alle Transhumanismus Vorstellungen, die wir rein technologisch bekommen werden. Technologie kann man ablehnen. Ein Kooperationsdenksystem nicht. Das ist Totalitarismus.

Beispiel Ethik/Juristerei/rationale Entscheidungstheorie im Utilitarismus:

Fahren genügend Autos bei rot über die Ampel muss man irgend wann Heckenschützen anstellen.

w.endemann 28.10.2016 | 14:37

@ LETHE22.10.2016 | 13:01

Nachdem der Thread wieder verfügbar ist, möchte ich eine ausstehende Antwort nachliefern.

Ein Mensch dagegen kann sein strategisches Konzept anpassen, während es abläuft, er kann sich, anders gesagt, während seiner eigenen Laufzeit umprogrammieren, in Abhängigkeit von neu auftretenden Aufgaben; er ist eine Super-von-Neumann-Maschine.

Nun, warum so zurückhaltend, das Argument ist weiter zu fassen: er kann sich nicht nur in Abhängigkeit von neu auftretenden Aufgaben, sondern auch ohne äußeren Anlaß neue Ziele setzen und vorliegende zu einer neuen Zielvorstellung umprogrammieren. Wenn er denn überhaupt sein Handeln auf zweckrationale Weise zum Problemlösen organisiert. Und das Ziel muß nicht in einer Problemlösung bestehen. Beim zweckrationalen Handeln kann man von einem algorithmischen Vorgehen reden. Weil der Handelnde aber entweder das Ziel selbst setzt (autonome Zielsetzung) oder in der Regel wenigstens an der Zieldefinition beteiligt ist, und weil er überhaupt das Verfahren als zielführend erkennt, unterscheidet er sich prinzipiell von jeder Maschine, ist er auch mehr als eine Super-von-Neumann-Maschine.

In Ihrer Argumentation unterläuft Ihnen ein kleiner Fehler. Sie fassen einmal den Algorithmus als Programm, dh als intellektuelle Leistung des Programmierers, und als solche kann man in der Tat den Algorithmus mit dem zweckrationalen Handeln vergleichen, mit dem kleinen Unterschied, daß das eine Mal die Mittel zur Erreichung eines oft nicht vorgegebenen, sondern zu errechnenden Zielwerts festgelegt sind (das ist anders bei Optimierungszielen), beim zweckrationalen Handeln dagegen meistens das Ziel feststeht und die Mittel, es zu erreichen, gefunden werden müssen. Dann aber abstrahieren Sie das Programm als Algorithmus von seinem Schöpfer, dem Programmierer. Nur dadurch ergibt sich der Unterschied von starrem Programm und sich selbst umprogrammierendem Handlungssubjekt. Der Programmierer kann selbstverständlich ebenfalls umprogrammieren, und er kann ein Programm schreiben, das sich nach seinen Wünschen unter definierten Bedingungen (Maschinenzuständen) selbst umprogrammiert. Das ist dann ein Mehrschichtenprogramm, es ändert sich jedoch nichts an der ursprünglichen Situation, das Mehrschichtenprogramm ist ein genau so starres Verfahren, nur mit einer größeren Zahl möglicher Wege. Wenn man auf der Ebene der Maschinenprozesse den Algorithmus definiert, gilt die Erläuterung, die ich in meinem Kommentar gegeben habe, die von-Neumann-Maschine, die Turingmaschine prozessiert (wir reden ganz angemessen vom Prozessor, der CPU), der Mensch, Programmierer oder autonom Handelnder, denkt.

Den Maschinenalgorithmus wie den abgrenzbaren unbewußt ablaufenden hirnphysiologischen Vorgang kann man, da stimme ich zu, als Ablaufplan bezeichnen. Solche Ablaufpläne stehen jedem Individuum massenhaft zur Verfügung. Das sind angeborene Vorstrukturen und hauptsächlich die Routinen, die man sich im Leben erworben hat; der weitaus überwiegende Teil des Handelns geschieht in Routinen. Sie benötigen kein Bewußtsein, können aber bewußt gemacht werden. So können sie rein materiell, aber auch als Bedeutungsträger (und dann bewußt ausgesetzt oder modifiziert werdend) funktionieren.

Die Gestaltebene ist die Art und Weise, wie die Dinge uns vorkommen. Ein Neuronengewitter kommt uns nicht wie ein Neuronengewitter vor, sondern wie ein Gedanke

Diese Formulierung gefällt mir nicht, denn sie suggeriert, daß der Gedanke die beschönigende, mystifizierende Interpretation eines objektiven Sachverhalts ist, wie es die von mir erwähnte Denkrichtung in der Neurophysiologie behauptet hat. Das ist in seiner strengen Form reiner Positivismus. Ihr Kommentar ist da etwas widersprüchlich und klingt stellenweise so. Wenn Bedeutung, Sinn, Bewußtsein materialismusimmanent sind und sich nicht als Schimären in den biochemischen Prozessen auflösen sollen, müßte man angeben, was sie denn stattdessen material sind. Darauf haben Sie mit Implementierung und zeigt sich als keine befriedigende Antwort gegeben.

Eine mögliche Lösung, die Sie allerdings nicht anbieten, wäre, materiellen Prozeß und Bedeutung als Einheit zu denken, dann funktioniert halbwegs das Isolieren von Abstraktions- bzw Konkretionsstufen, die relative Unabhängigkeit und wenn auch schwache wechselseitige Abhängigkeit von Physis, Psyche und Geist. Und das wäre mit meinem Konzept des transzendierenden Sinns und des materiellen Substrats vereinbar.

Lethe 29.10.2016 | 14:50

Schwierig. Ein Algorithmus ist eine Strategie zum Erfüllen einer bestimmten Aufgabe. Seine Struktur und die einzelnen Schritte werden von der Aufgabe her definiert.

Ein Algorithmus, wie Sie ihn beschreiben, gleicht eher einer Aufforderung, besser zu leben, ohne Festlegung, worin das bessere Leben eigentlich besteht. Aus Sicht eines Programmes verlangt ein solcher Algorithmus keinerlei Aktion, da damit keine Aufgabe verbunden ist.

Wenn soetwas gelänge, wie das, was Ihnen vorschwebt, also die Selbstoprimierung Ziel und als solche Selbstzweck wäre, hätten wir wesentliche Aspekte von Bewusstheit, Intelligenz, Kreativität u.dgl. formalisiert. Ich bezweifele, dass wir sonderlich nahe an dieser Schwelle sind. Aber selbst wenn es gelänge, könnte man solchen Algorithmen ein Grundgesetz in Form von festverdrahteten Regeln mitgeben, die der Algorithmus nicht überschreiten kann und den Rahmen dessen erzwingen, womit der Algorithmus sich beschäftigen darf.

Nicht dass ich glaube, dass soetwas nötig ist. Diese Ängste resultieren m.E. aus der Übertragung menschlicher Verhältnisse auf elektronische Systeme. Diese Systeme verfügen aber über derart wenige Freiheitsgrade, dass m.E. selbst der Zufall als Evolutionsstarter ausgeschlossen werden kann.

Was andererseits nicht heißen soll, dass man solche Algorithmen nicht so klug machen kann, dass sie eines Tages Turingtests jeglicher Schwierigkeitsstufe bestehen. Davon sind wir auch gar nicht mehr so weit entfernt. Und trotzdem ist damit keine Absichtsbehaftung der Algorithmen verbunden.