Moleküle des Hasses

Interview Der Physiker Neil Johnson untersucht die Hater im Internet nach den Regeln seines Fachs

Einsame Wölfe. Terroristische Zellen. Etwas geht viral. Die Sprache, die wir benutzen, um Extremismus zu beschreiben, trieft nur so vor Metaphern aus der Natur. In unserem Bestreben, zu verstehen, warum Menschen sich unmenschlich verhalten, greifen wir auf Vergleiche aus der Biologie, Ökologie und Medizin zurück. Was aber, wenn wir bisher in den falschen wissenschaftlichen Disziplinen unterwegs waren? Was, wenn die Ausbreitung von Hass viel weniger mit der Ausbreitung von Krebs im politischen Körper zu tun hat als mit dem Entstehen von Luftblasen in einem Topf mit kochendem Wasser?

Das jedenfalls ist die Annahme von Neil Johnson, Physikprofessor an der George Washington University und Hauptautor einer Studie über die Ausbreitung von Hass im Internet, die vergangene Woche im Magazin Nature erschien. Für einen Physiker ein durchaus abwegiges Thema. Johnsons Karriere begann in Oxford, wo er ausgiebig zur Quanteninformatik und Komplexitätstheorien publizierte. Mit dem Umzug in die USA 2007 wandte er sich einem neuen Forschungsfeld zu, der Anwendung physikalischer Theorien auf komplexe menschliche Verhaltensweisen, wobei das Anwendungsgebiet von den Finanzmärkten über Krisengebiete und Aufstände bis hin zur Rekrutierung von Terroristen reicht. Johnsons ungewöhnlicher Ansatz führt zu erstaunlichen Schlussfolgerungen – und zu politischen Empfehlungen, die jeder Intuition widersprechen.

Julia Carrie Wong: Wie kamen Sie von der physikalischen Forschung auf Extremismus und Hass im Internet?

Neil Johnson: Die meisten Menschen denken, es ginge in der Physik darum, Dinge aufzubrechen und in immer kleinere Teile zu zerlegen. Aber es gibt eben auch einen großen, sehr fruchtbaren Bereich, in dem es um das Gegenteil geht: Was geschieht, wenn man Elemente zusammensetzt? Wenn ich Wassermoleküle kombiniere, bekomme ich eine Flüssigkeit, Eis bildet sich, es entstehen Eisberge und am Ende geht die Titanic unter. Es hat alle möglichen Konsequenzen, wenn man Dinge miteinander in Verbindung setzt, gute und schlechte. Wir tendieren dazu, Individuen die Schuld zu geben. In der Welt der Physik würde man das niemals tun. Es gibt kein böses Molekül, das dafür sorgt, dass Wasser kocht. Es handelt sich um einen kollektiven Vorgang. So kam es zu der Überlegung, ob wir soziale Probleme nicht besser durch diese Brille betrachten sollten. In dem vorliegenden Fall haben wir einfach ganz naiv gefragt: Wie sieht die Welt des Onlinehasses aus? Wir fanden ein gewaltiges Netzwerk des Hasses. Ich erforsche für gewöhnlich Netzwerke in biologischen und wirtschaftlichen Systemen. Dieses hier ist das komplizierteste, das ich je untersucht habe – zehnmal so kompliziert –, da es Geografie, Kontinente, Sprachen, Kulturen und verschiedene Onlineplattformen vermengt. Der Versuch, dieses Netzwerk innerhalb einer Plattform im Zaum zu halten, ist in etwa so, als würde man sagen: Wenn ich mir das Unkraut in meinem Garten vornehme, verbanne ich das Problem aus dem ganzen Viertel.

Sie vergleichen Hass mit chemischen Verbindungen und greifen auf die Polymerforschung zurück. Wie haben Sie dieses Framework entwickelt?

Es geht hier nicht um analoge Bilder. Wir haben uns angesehen, wie die Daten und Zahlen sich verhalten und Ähnlichkeiten zur chemischen Anbindung festgestellt. Wenn Sie Milch in den Kühlschrank stellen, gerinnt sie nach und nach und ist plötzlich sauer. Der Grund dafür ist, unter dem Mikroskop betrachtet, dass sich Partikel miteinander verbinden. Mathematisch funktioniert der Zusammenschluss von Menschen zu Gruppen genauso. Nun ist die Standardreaktion: „Oh, aber ich bin ein Individuum, ich verhalte mich nicht wie ein Milchmolekül.“ Ja, aber im Kollektiv machen wir das sehr wohl, da andere unser Verhalten mitbestimmen. Unsere Möglichkeiten sind eingeschränkt, also tendieren wir dazu, Dinge wieder und wieder zu tun. Wie gesagt, es handelt sich nicht um eine Analogie. Die Leute vergleichen Hass im Internet mit Krebs oder einem Virus. Nein: Es verhält sich mit ihm wie mit der Gerinnung, was wiederum die Bildung von Blasen bedeutet.

Wie entstand Ihr Modell?

Unser Ausgangspunkt waren Gruppen, die von Facebook bereits gesperrt worden waren, etwa der Ku-Klux-Klan. Wir sahen uns an, mit welchen anderen Gruppen sie sich verbunden hatten, welche sich umgekehrt mit ihnen verbunden hatten, und diese Kette haben wir immer weiter verfolgt. Wir stellten fest, dass es ein geschlossenes Netzwerk von etwa 1.000 Gruppen weltweit gibt, über sämtliche Plattformen verteilt, das Hass jeder Couleur verbreitet. Angenommen, jede von ihnen umfasst etwa 1.000 Mitglieder (tatsächlich sind es zwischen 10 und 100.0000, also gehen wir von durchschnittlich 1.000 aus), kommen wir auf 1.000 Gruppen à 1.000 Mitglieder – das sind eine Million Menschen. Das ist unsere sehr grobe erste Einschätzung, von welchen Zahlen wir ausgehen müssen.

1.000 Netzwerke, das ist eine irritierend überschaubare Zahl.

Nicht, wenn es sieben Milliarden mögliche Beteiligte gibt. Aber sie haben uns die Arbeit ja abgenommen und sich selbst zu Gruppen zusammengeschlossen.

Haben Sie eine Liste dieser 1.000 Gruppen?

Die haben wir erstellt. Ich hatte erwartet, dieser Prozess nähme kein Ende. Aber wir kamen an den Punkt, wo wir dachten: Wow, wir haben das Universum des Hasses im Internet zu einem bestimmten Grad kartografiert. Jetzt können wir damit beginnen, zu verstehen, wie die Dinge miteinander in Verbindung stehen und aussehen.

Zur Person

Neil Johnson hat in Harvard promoviert und hält seit 2018 einen Lehrstuhl für Physik an der George Washington University. Johnsons Spezialgebiet ist die Untersuchung von komplexen sozialen Systemen anhand von Methoden aus der physikalischen Forschung

Wie sah die Bandbreite der Ideologien in diesen Hass-Gruppen aus? Handelte es sich vor allem um Antisemitismus, Rassismus, weißen Nationalismus?

Wir gingen davon aus, wir würden auf eigenständige, klar definierte Schubladen stoßen. Aber wie das bei Amokschützen nicht der Fall ist, war das auch online nicht so. Stattdessen stießen wir auf alle denkbaren Schattierungen, ein multidimensionales Spektrum.

In Ihrer Studie beschreiben Sie auch Formen der Resilienz von Hass-Gruppen, wenn sie bedroht werden. Anlass zur Sorge gibt vor allem diese Warnung: „Die Sanktionierung innerhalb einer einzelnen Plattform (etwa Facebook) kann zu einer Verschlimmerung führen und zum Entstehen von ‚Dark Pools‘, in denen der Hass floriert.“ Können Sie genauer erklären, wie das funktioniert? Was meinen Sie mit Dark Pools? Plattformen wie 8Chan?

Schlimmer noch. 8Chan ist eher eine einsame Insel. Ich spreche von Dark Pools, die sich innerhalb der kommerziellen Plattformen bilden, denen wir „vertrauen“. Als der KKK von Facebook gesperrt wurde, gab es ein Empfangskomitee, das ihn auf dem russischen sozialen Netzwerk VK mit offenen Armen aufnahm. Es war wie Erstie-Wochen an der Uni: „Wir nehmen euch an der Hand, wir zeigen euch diese Community – und ihr werdet finden, was ihr sucht.“ Sie werden dann Teil einer engen Gruppe, und sie knüpfen Bande, um herauszufinden, was zu ihrem Ausschluss geführt hat und wie sie das umgehen können, wenn sie zurückkehren. Eine Anpassung war, dass sie den Namen KKK in kyrillischen Buchstaben schrieben, als sie sich wieder bei Facebook anmeldeten. Optisch ist sich das sehr ähnlich, aber ein Algorithmus erkennt es nicht. Das ist schlau.

Wie sind Sie zu Ihren vier Empfehlungen gelangt?

Wenn ich verhindern will, dass Wasser zum Kochen kommt, dann muss ich nicht die einzelnen Moleküle davon abhalten, in den Dampf hochzuspringen, ich muss verhindern, dass Blasen entstehen. Wir wissen, dass Sich die großen Blasen aus den kleinen speisen. Die erste Idee ist, die kleinen Blasen anzugreifen. Sie sind schwächer, haben weniger Geld, weniger einflussreiche Mitglieder und werden mit den größeren verwachsen. Die Eliminierung der Kleinen – das haben wir mathematisch nachgewiesen – schwächt rapide die gesamte Ökologie. Sie stoppt den Nachschub. Zweitens haben wir nachgewiesen, dass man aufgrund der Vernetzung in diesem System nur zehn Prozent der Accounts sperren müsste, um die Geschlossenheit des Netzwerkes entscheidend zu verändern. Wenn man zehn Prozent der Mitglieder weltweit entfernt, fällt es in sich zusammen.

So interessant das klingt, erscheint es doch unfair, dass zehn Prozent derer, die ein negatives Verhalten aufweisen, stellvertretend bestraft werden.

Augenscheinlich haben alle Beteiligten die Nutzerbedingungen der Plattform verletzt, also sollten im Prinzip alle ihre Accounts gelöscht werden. Das versucht Facebook ohnehin. Unser Vorstoß ist, sich nicht zuerst auf die wichtigsten Personen zu stürzen.

Ein weiterer Vorschlag ist, „Anti-Hass-Gruppen“ einzusetzen, die sich mit den Hass-Gruppen auseinandersetzen. Wie könnte das funktionieren?

Man verwickelt sie in kleine Scharmützel, die sie ablenken, hält sie mit Nichtigkeiten auf.

Sie würden also sagen, es lohnt sich, Trolle online zu bekämpfen?

Genau. Aber man sollte das als Gruppe tun, nicht alleine. Das macht einen nur fertig.

Konnten Sie Fälle beobachten, in denen so etwas funktioniert hat?

Nein. Wie gesagt, war der physikalische Hintergrund: Wie löse ich eine Blase auf? Es gibt keine Anti-Blasen. Aber es gibt in der Physik den Ansatz, dass zwei Gegensätze sich neutralisieren können. Am besten gefällt mir der vierte Vorschlag, den wir machen, denn er zielt auf die vielen Aromen des Hasses. In Großbritannien gibt es zwei Neonazigruppen, die vorgeblich die gleichen Ziele haben. Dem ist aber nicht so – die eine will ein vereinigtes Europa. Die andere will alle Strukturen zerstören und die übrigen Länder ausmerzen. Also muss man Gruppen innerhalb der Gruppen einschleusen, die diese Differenzen stärken. Das sollten aber nicht Laien machen sondern Personen mit einer gewissen (sozial-)psychologischen Expertise.

Das klingt nach den Counter-Intelligence-Strategien, mit denen das FBI in den 60ern versuchte, verschiedene Gruppen innerhalb der Bürgerrechtsbewegunggegeneinander aufzustacheln und mögliche ideologische Differenzen zu nutzen, um sie zu spalten.

Darüber weiß ich zu wenig, ich würde aber definitiv nicht wollen, dass diese Methode für schlechte Ziele angewandt wird. Aber ich sehen darin eine Möglichkeit, die Mitglieder von Hass-Gruppen zu zermürben. Am Ende haben sie dann vielleicht einfach genug. Weg ist der Hass deshalb nicht. Es ist dann nur so, dass sie den ganzen Traffic mehr hassen als die Juden. Es verschiebt den Fokus.

Das Gespräch führte Julia Carrie Wong, sie arbeitet als Tech-Reporterin für den Guardian in San Francisco

Übersetzung: Christine Käppeler
06:00 22.09.2019
Geschrieben von

Julia Carrie Wong | The Guardian

Der Freitag ist Syndication-Partner der britischen Tageszeitung The Guardian
Schreiber 0 Leser 10081
The Guardian
Aboanzeige Artikel Aboanzeige Artikel

Kommentare 11