Einsame Wölfe. Terroristische Zellen. Etwas geht viral. Die Sprache, die wir benutzen, um Extremismus zu beschreiben, trieft nur so vor Metaphern aus der Natur. In unserem Bestreben, zu verstehen, warum Menschen sich unmenschlich verhalten, greifen wir auf Vergleiche aus der Biologie, Ökologie und Medizin zurück. Was aber, wenn wir bisher in den falschen wissenschaftlichen Disziplinen unterwegs waren? Was, wenn die Ausbreitung von Hass viel weniger mit der Ausbreitung von Krebs im politischen Körper zu tun hat als mit dem Entstehen von Luftblasen in einem Topf mit kochendem Wasser?
Das jedenfalls ist die Annahme von Neil Johnson, Physikprofessor an der George Washington University und Hauptautor einer Studie über die Ausbreitung von Hass im Internet, die vergangene Woche im Magazin Nature erschien. Für einen Physiker ein durchaus abwegiges Thema. Johnsons Karriere begann in Oxford, wo er ausgiebig zur Quanteninformatik und Komplexitätstheorien publizierte. Mit dem Umzug in die USA 2007 wandte er sich einem neuen Forschungsfeld zu, der Anwendung physikalischer Theorien auf komplexe menschliche Verhaltensweisen, wobei das Anwendungsgebiet von den Finanzmärkten über Krisengebiete und Aufstände bis hin zur Rekrutierung von Terroristen reicht. Johnsons ungewöhnlicher Ansatz führt zu erstaunlichen Schlussfolgerungen – und zu politischen Empfehlungen, die jeder Intuition widersprechen.
Julia Carrie Wong: Wie kamen Sie von der physikalischen Forschung auf Extremismus und Hass im Internet?
Neil Johnson: Die meisten Menschen denken, es ginge in der Physik darum, Dinge aufzubrechen und in immer kleinere Teile zu zerlegen. Aber es gibt eben auch einen großen, sehr fruchtbaren Bereich, in dem es um das Gegenteil geht: Was geschieht, wenn man Elemente zusammensetzt? Wenn ich Wassermoleküle kombiniere, bekomme ich eine Flüssigkeit, Eis bildet sich, es entstehen Eisberge und am Ende geht die Titanic unter. Es hat alle möglichen Konsequenzen, wenn man Dinge miteinander in Verbindung setzt, gute und schlechte. Wir tendieren dazu, Individuen die Schuld zu geben. In der Welt der Physik würde man das niemals tun. Es gibt kein böses Molekül, das dafür sorgt, dass Wasser kocht. Es handelt sich um einen kollektiven Vorgang. So kam es zu der Überlegung, ob wir soziale Probleme nicht besser durch diese Brille betrachten sollten. In dem vorliegenden Fall haben wir einfach ganz naiv gefragt: Wie sieht die Welt des Onlinehasses aus? Wir fanden ein gewaltiges Netzwerk des Hasses. Ich erforsche für gewöhnlich Netzwerke in biologischen und wirtschaftlichen Systemen. Dieses hier ist das komplizierteste, das ich je untersucht habe – zehnmal so kompliziert –, da es Geografie, Kontinente, Sprachen, Kulturen und verschiedene Onlineplattformen vermengt. Der Versuch, dieses Netzwerk innerhalb einer Plattform im Zaum zu halten, ist in etwa so, als würde man sagen: Wenn ich mir das Unkraut in meinem Garten vornehme, verbanne ich das Problem aus dem ganzen Viertel.
Sie vergleichen Hass mit chemischen Verbindungen und greifen auf die Polymerforschung zurück. Wie haben Sie dieses Framework entwickelt?
Es geht hier nicht um analoge Bilder. Wir haben uns angesehen, wie die Daten und Zahlen sich verhalten und Ähnlichkeiten zur chemischen Anbindung festgestellt. Wenn Sie Milch in den Kühlschrank stellen, gerinnt sie nach und nach und ist plötzlich sauer. Der Grund dafür ist, unter dem Mikroskop betrachtet, dass sich Partikel miteinander verbinden. Mathematisch funktioniert der Zusammenschluss von Menschen zu Gruppen genauso. Nun ist die Standardreaktion: „Oh, aber ich bin ein Individuum, ich verhalte mich nicht wie ein Milchmolekül.“ Ja, aber im Kollektiv machen wir das sehr wohl, da andere unser Verhalten mitbestimmen. Unsere Möglichkeiten sind eingeschränkt, also tendieren wir dazu, Dinge wieder und wieder zu tun. Wie gesagt, es handelt sich nicht um eine Analogie. Die Leute vergleichen Hass im Internet mit Krebs oder einem Virus. Nein: Es verhält sich mit ihm wie mit der Gerinnung, was wiederum die Bildung von Blasen bedeutet.
Wie entstand Ihr Modell?
Unser Ausgangspunkt waren Gruppen, die von Facebook bereits gesperrt worden waren, etwa der Ku-Klux-Klan. Wir sahen uns an, mit welchen anderen Gruppen sie sich verbunden hatten, welche sich umgekehrt mit ihnen verbunden hatten, und diese Kette haben wir immer weiter verfolgt. Wir stellten fest, dass es ein geschlossenes Netzwerk von etwa 1.000 Gruppen weltweit gibt, über sämtliche Plattformen verteilt, das Hass jeder Couleur verbreitet. Angenommen, jede von ihnen umfasst etwa 1.000 Mitglieder (tatsächlich sind es zwischen 10 und 100.0000, also gehen wir von durchschnittlich 1.000 aus), kommen wir auf 1.000 Gruppen à 1.000 Mitglieder – das sind eine Million Menschen. Das ist unsere sehr grobe erste Einschätzung, von welchen Zahlen wir ausgehen müssen.
1.000 Netzwerke, das ist eine irritierend überschaubare Zahl.
Nicht, wenn es sieben Milliarden mögliche Beteiligte gibt. Aber sie haben uns die Arbeit ja abgenommen und sich selbst zu Gruppen zusammengeschlossen.
Haben Sie eine Liste dieser 1.000 Gruppen?
Die haben wir erstellt. Ich hatte erwartet, dieser Prozess nähme kein Ende. Aber wir kamen an den Punkt, wo wir dachten: Wow, wir haben das Universum des Hasses im Internet zu einem bestimmten Grad kartografiert. Jetzt können wir damit beginnen, zu verstehen, wie die Dinge miteinander in Verbindung stehen und aussehen.
Zur Person
Neil Johnson hat in Harvard promoviert und hält seit 2018 einen Lehrstuhl für Physik an der George Washington University. Johnsons Spezialgebiet ist die Untersuchung von komplexen sozialen Systemen anhand von Methoden aus der physikalischen Forschung
Wie sah die Bandbreite der Ideologien in diesen Hass-Gruppen aus? Handelte es sich vor allem um Antisemitismus, Rassismus, weißen Nationalismus?
Wir gingen davon aus, wir würden auf eigenständige, klar definierte Schubladen stoßen. Aber wie das bei Amokschützen nicht der Fall ist, war das auch online nicht so. Stattdessen stießen wir auf alle denkbaren Schattierungen, ein multidimensionales Spektrum.
In Ihrer Studie beschreiben Sie auch Formen der Resilienz von Hass-Gruppen, wenn sie bedroht werden. Anlass zur Sorge gibt vor allem diese Warnung: „Die Sanktionierung innerhalb einer einzelnen Plattform (etwa Facebook) kann zu einer Verschlimmerung führen und zum Entstehen von ‚Dark Pools‘, in denen der Hass floriert.“ Können Sie genauer erklären, wie das funktioniert? Was meinen Sie mit Dark Pools? Plattformen wie 8Chan?
Schlimmer noch. 8Chan ist eher eine einsame Insel. Ich spreche von Dark Pools, die sich innerhalb der kommerziellen Plattformen bilden, denen wir „vertrauen“. Als der KKK von Facebook gesperrt wurde, gab es ein Empfangskomitee, das ihn auf dem russischen sozialen Netzwerk VK mit offenen Armen aufnahm. Es war wie Erstie-Wochen an der Uni: „Wir nehmen euch an der Hand, wir zeigen euch diese Community – und ihr werdet finden, was ihr sucht.“ Sie werden dann Teil einer engen Gruppe, und sie knüpfen Bande, um herauszufinden, was zu ihrem Ausschluss geführt hat und wie sie das umgehen können, wenn sie zurückkehren. Eine Anpassung war, dass sie den Namen KKK in kyrillischen Buchstaben schrieben, als sie sich wieder bei Facebook anmeldeten. Optisch ist sich das sehr ähnlich, aber ein Algorithmus erkennt es nicht. Das ist schlau.
Wie sind Sie zu Ihren vier Empfehlungen gelangt?
Wenn ich verhindern will, dass Wasser zum Kochen kommt, dann muss ich nicht die einzelnen Moleküle davon abhalten, in den Dampf hochzuspringen, ich muss verhindern, dass Blasen entstehen. Wir wissen, dass Sich die großen Blasen aus den kleinen speisen. Die erste Idee ist, die kleinen Blasen anzugreifen. Sie sind schwächer, haben weniger Geld, weniger einflussreiche Mitglieder und werden mit den größeren verwachsen. Die Eliminierung der Kleinen – das haben wir mathematisch nachgewiesen – schwächt rapide die gesamte Ökologie. Sie stoppt den Nachschub. Zweitens haben wir nachgewiesen, dass man aufgrund der Vernetzung in diesem System nur zehn Prozent der Accounts sperren müsste, um die Geschlossenheit des Netzwerkes entscheidend zu verändern. Wenn man zehn Prozent der Mitglieder weltweit entfernt, fällt es in sich zusammen.
So interessant das klingt, erscheint es doch unfair, dass zehn Prozent derer, die ein negatives Verhalten aufweisen, stellvertretend bestraft werden.
Augenscheinlich haben alle Beteiligten die Nutzerbedingungen der Plattform verletzt, also sollten im Prinzip alle ihre Accounts gelöscht werden. Das versucht Facebook ohnehin. Unser Vorstoß ist, sich nicht zuerst auf die wichtigsten Personen zu stürzen.
Ein weiterer Vorschlag ist, „Anti-Hass-Gruppen“ einzusetzen, die sich mit den Hass-Gruppen auseinandersetzen. Wie könnte das funktionieren?
Man verwickelt sie in kleine Scharmützel, die sie ablenken, hält sie mit Nichtigkeiten auf.
Sie würden also sagen, es lohnt sich, Trolle online zu bekämpfen?
Genau. Aber man sollte das als Gruppe tun, nicht alleine. Das macht einen nur fertig.
Konnten Sie Fälle beobachten, in denen so etwas funktioniert hat?
Nein. Wie gesagt, war der physikalische Hintergrund: Wie löse ich eine Blase auf? Es gibt keine Anti-Blasen. Aber es gibt in der Physik den Ansatz, dass zwei Gegensätze sich neutralisieren können. Am besten gefällt mir der vierte Vorschlag, den wir machen, denn er zielt auf die vielen Aromen des Hasses. In Großbritannien gibt es zwei Neonazigruppen, die vorgeblich die gleichen Ziele haben. Dem ist aber nicht so – die eine will ein vereinigtes Europa. Die andere will alle Strukturen zerstören und die übrigen Länder ausmerzen. Also muss man Gruppen innerhalb der Gruppen einschleusen, die diese Differenzen stärken. Das sollten aber nicht Laien machen sondern Personen mit einer gewissen (sozial-)psychologischen Expertise.
Das klingt nach den Counter-Intelligence-Strategien, mit denen das FBI in den 60ern versuchte, verschiedene Gruppen innerhalb der Bürgerrechtsbewegunggegeneinander aufzustacheln und mögliche ideologische Differenzen zu nutzen, um sie zu spalten.
Darüber weiß ich zu wenig, ich würde aber definitiv nicht wollen, dass diese Methode für schlechte Ziele angewandt wird. Aber ich sehen darin eine Möglichkeit, die Mitglieder von Hass-Gruppen zu zermürben. Am Ende haben sie dann vielleicht einfach genug. Weg ist der Hass deshalb nicht. Es ist dann nur so, dass sie den ganzen Traffic mehr hassen als die Juden. Es verschiebt den Fokus.
Kommentare 6
„Wenn ich verhindern will, dass Wasser zum Kochen kommt, dann muss ich nicht die einzelnen Moleküle davon abhalten, in den Dampf hochzuspringen, ich muss verhindern, dass Blasen entstehen. Wir wissen, dass Sich die großen Blasen aus den kleinen speisen.“
Sehr interessante Erkenntnisse, sehr interessanter Ansatz!
Hier wichtige Ergebnisse im Überblick: Trolle im Verbund auch online bekämpfen; Eliminierung bereits der Kleinen verfolgen; bei 10% Eliminierung folgt Systemzusammenbruch; Anti-Hass-Gruppen gegen Hass-Gruppen bilden; konkurrierende Gruppen einschleusen.
Heutzutage muss man davon ausgehen, dass sich in jedem Forum absichtliche Diskussionszersetzer aufhalten. Dabei spielt es nur eine untergeordnete Rolle, ob diese ideologisch „besessen“ oder im Auftrag Dritter vorgehen. Das dabei benutzte Instrumentarium ist äußerst vielfältig. Hier nur einige wenige Merkmale: immer wieder Ablenkung vom eigentlichen Thema (hin zu Nebenkriegsschauplätzen) durch z. B. eine Vielzahl an Fragen im Verbund mit aufgeblasenem scheinbaren Detailwissen und dem ständig wiederholten Vorwurf des Unkonkreten, krampfhafte Vermeidung konstruktiven Miteinanders, immer wieder Rudelbildung der immer wieder gleichen Akteure, bis hin zur systematischen, gemeinsamen persönlichen Verunglimpfung der inhaltlichen Gegner usw.
Was lässt sich dagegen tun?
1) Jeder Foren-Teilnehmer sollte sich absolut bewusst sein, dass er bei einem überwiegend anonymen Forum relativ schnell und immer besser, diejenigen Teilnehmer erkennen kann, die sich ernsthaft um konstruktiven Austausch bemühen und sich lern- und kritikbereit zeigen. Bei allen anderen ist erhöhte Aufmerksamkeit angesagt, denn hinter jedem Pseudonym könnte sich ein absichtlicher Zersetzer befinden.
2) Je mehr man sich mit diesen abgibt, auf deren Ablenkungsmanöver eingeht, womöglich noch die „Harmoniesoße“ über alles und alle ausgießt - will man doch prinzipiell keinen verletzen oder sogar ausschließen -, desto mehr stärkt man die zersetzerischen Kräfte innerhalb eines Forums und erreicht komplett das Gegenteil: eben nicht das harmonische, fruchtbare Miteinander, sondern das sinnlose zersetzerische Gegeneinander.
3) Daraus folgt, dass all die Formen von Menschenfreundlichkeit bzw. Gutmütigkeit, wie man sie bei persönlichen Begegnungen zumindest anfänglich aus Überzeugung an den Tag legen würde, hat als Automatik zumindest in einem Forum nichts zu suchen, allenfalls denjenigen gegenüber, bei denen man sich in Bezug auf deren Konstruktivität sicher ist.
4) Um den absichtlichen Zersetzern wirkungsvoll begegnen zu können, braucht es ein möglich geschlossenes Miteinander (Trolle im Verbund bekämpfen). Sind diese einmal wirkungsvoll entlarvt, sollte diese Kenntnis den künftigen Umgang mit diesen prägen: z. B. durch komplette gemeinsame Nichtbeachtung. Jedes Abweichen von dieser Haltung ist kontraproduktiv. Daran sollte man sich gegenseitig erinnern. Auf diese Weise könnte das zersetzerische Rudel systematisch geschwächt werden. Ja, auch in diesem Forum gibt es bereits bisher noch ungenutzte Ausweichpseudonyme. Zersetzer kommen also immer wieder, auch mit einem neuen Gesicht. Um so wichtiger ist die positive Rudelbildung (Anti-Hass-Gruppen gegen Hass-Gruppen bilden)
5) Man sollte sich von diesem Verhalten nicht abbringen lassen, auch wenn Beiträge der Entlarvten plötzlich versöhnlicher werden, um Gutmütige wieder anzulocken. Entweder sind sehr ausgebuffte Strategen am Werk, oder aber das Team hinter einem Pseudonym sucht sich die jeweils richtigen Schreiber aus. Für mich wird das auch dadurch deutlich, dass man bei ein und dem gleichen Pseudonym - und es sind natürlich vor allem die, die auf Anonymität den größten Wert legen - auf erhebliche Unterschiede in inhaltlicher und sprachlicher Qualität stößt.
Fazit: Es ist ein verhängnisvoller Irrglauben, dass die eigene Menschenfreundlichkeit das unbedingte Standard-Verhalten auch in einem Forum ist. Es braucht unverzichtbar kompromisslose Intoleranz gegen Intoleranz (Eliminierung bereits der Kleinen verfolgen, bei 10% Eliminierung folgt Systemzusammenbruch)!
Es gibt ein bekanntes Popper-Zitat: "Uneingeschränkte Toleranz führt zu Intoleranz".
Bleibt also das Problem zu lösen, wie man die Toleranz verteidigen kann, ohne sie gleichzeitig zu zerstören. Und ohne dabei in einen Werterelativismus zu verfallen. Wiederum mit der Annahme, das Wahrheit mehr ist als bloße Theorie und über die Vernunft erkannt werden kann.
Einer Wahrheit, die sich als menschliches Ordnungsprinzip friedlichen Zusammenlebens ergibt (zugrunde liegt) und im Zuge der Entwicklung erweitert wird. Sozusagen als ethische Grundlage der Vernunft.
So in etwa (...)
"Bleibt also das Problem zu lösen, wie man die Toleranz verteidigen kann, ohne sie gleichzeitig zu zerstören. "
Richtig! Das verlangt aufmerksames Hinterfragen auch der eigenen Position. J. Gauck benutzt den Begriff der "kämpferischen Intoleranz". Inhalte, die die rote Linie (z.B. von Recht und Gesetzt) noch nicht überschritten haben, deren Inhalte für einen selber eine Zumutung darstellen, die man deshalb auch mit angemessenen Mitteln bekämpft, abber insgesamt dulldet.
In einem Forum geht es aber nicht nur um inhaltliche Toleranz bzw. Intoleranz, sondern um Intoleranz gegenüber intolerablen Verhalten. Hass und Zersetzung müssen nicht inhaltlich die rote Linie überschreiten, wohl aber die Linie des Erträglichn in Hinblick auf eine gelingende, konsttuktive Erörterung, bei der gegensätzliche Standpunkte (konstruktiv mit eingebracht) durchaus erwünscht sind.
Die gestern gegen Sie erfolgte persönliche Verunglimpfung bei einem anderen Beitrag war intolerabel. Da sie später selber darüber mit entsprechender Bemerkung hinweggegangen sind, habe ich mich nicht mehr konkret dazu geäußert. Heute bin ich erst auf diesen interessanten Artikel gestoßen. Im Grunde genommen entspricht dieser meiner Forenerkenntnisse.
Ich ziehe mich jedenfalls aus einigen "Kneipenrunden" raus. Halt ein wenig genauer hinschauen, wen man ankommentiert und wen man gegebenenfalls ignoriert.
Überlege noch, ob ich nicht mal einen Beitrag zusammenstelle über die "Techniken der Manipulation", was also Argumentation und Gesprächsführung betrifft. Damit hatte ich mich bereits früher beschäftigt, weil mir aufgefallen war, dass das meistens im Alltag unbewusst eingesetzt wird (in Beruf/ Politik und Medien gezielt) und von der Methodik der Formen her nicht bekannt ist.
Es sollte aber bekannt sein, um es zumindest zu erkennen und gemäß reagieren zu können. Hier gibt es auch einen inhaltlichen Zusammenhang mit meinem letzten Beitrag, was von mir herausgehoben wurde.
Was soll der Unfug? Der Herr Physiker sollte bei seinen Quanten bleiben. Er ist wohl durch den Ausdruck „vor Wut kochen“ (ich nehme an, es gibt ein amerikanisch-englisches Pendant) auf die Idee gekommen, eine physikalische Metapher heranzuziehen, die ihm scheinbar erlaubt, physikalische Verfahren auf soziale Phänomene zu übertragen, vermutlich weil ihm seine Physik als die naturwissenschaftliche Referenzdisziplin gilt. So schlägt er eine Troll-Strategie gegen eine Ausbildung von kollektiven Denkformen vor, die fast alle Meinungsbildung trifft, nicht nur die Haßakkumulation, denn Meinungen sind in der Regel Unserungen, es wird unser und euer eher als mein und dein unterschieden. Und Meinungen (ich bleibe bei diesem Begriff) sind mehr emotional als rational-kognitiv fundiert, sind primitiver, aber gelegentlich auch klüger als das diskursive Denken.
Johnson schlägt allen Ernstes die Methode vor, den Teufel mit dem Satan auszutreiben, oder die Manipulation der Selbstmanipulateure, die Strategie teile-und-herrsche, den Haß mit der Steigerung des Hasses zu neutralisieren. Das ist hirnrissig, denn es wird eine Verhaltensstrategie propagiert, die in bestimmten Anwendungsfällen hilfreich sein kann, die aber als Universalmethode auch katastrophale Ergebnisse zeitigen kann. Haß mit Haß bekämpfen endet in Krieg mit Krieg bekämpfen, am Ende sind alle tot. Da wäre es besser, auf Freibier für Faschisten zu setzen. Bestenfalls liefert eine reine Verhaltensstrategie eine Eindämmung von Fehlverhalten, einer Einsicht förderlich ist das nicht. Der Physiker behandelt die Menschen in der Tat wie Wassermoleküle im Aggregatzustand flüssig.
Naja, vielleicht hat er ja an die Methode der paradoxen Intervention gedacht. Nur funktioniert die unter der Voraussetzung, daß ein Konflikt auf die diskursive oder reflexive Ebene gehoben wird, werden kann.
"Überlege noch, ob ich nicht mal einen Beitrag zusammenstelle über die "Techniken der Manipulation", was also Argumentation und Gesprächsführung betrifft."
Gute Idee! Spätestens bei Aufenthalt in Foren mit den unterschiedlichsten anonymen Teilnehmern sollte man sich der Gefahren, die durch Manipulation drohen, bewusst sein. Je mehr man über die entsprechenden Techniken weiß, desto besser.