Lizenz zum Löschen

Enthüllung Recherchen des "Guardian" zeigen, wie Facebook Inhalte seiner Nutzer bewertet – und entfernt. Ein unsicheres Terrain. Tötungsvideos etwa werden nicht zwingend gelöscht
Lizenz zum Löschen
Daumen hoch? – Wohl eher nicht. Die Richtlinien dürften einige Kritiker alarmieren
Foto: JOSH EDELSON/AFP/Getty Images

Die geheimen Regeln und Richtlinien dafür, was die zwei Milliarden Nutzer der Social Media-Plattform Facebook auf der Seite posten dürfen, sind erstmals an die Öffentlichkeit gelangt. Recherchen des Guardian haben die Löschregeln enthüllt, und sie werden eine weltweite Debatte um die Rolle und die ethischen Grundsätze des Social Media-Giganten anstoßen.

"Facebook schafft es nicht, seine Inhalte zu kontrollieren. Die Seite sei 'zu schnell, zu groß' geworden."

Der Guardian erhielt Einsicht in über hundert interne Ausbildungshandbücher, Tabellen und Diagramme, die zeigen, was bisher öffentlich nicht zu sehen war. Nämlich, anhand welcher Richtlinien bei Facebook Themen wie Gewalt, Hassrede, Terrorismus, Pornografie, Rassismus und Selbstverletzungen moderiert werden. „Facebook schafft es nicht, seine Inhalte zu kontrollieren“, sagte eine Quelle. Die Seite sei „zu schnell, zu groß“ geworden.

Viele Moderatoren haben angeblich Bedenken angesichts der Inkonsistenz und Eigenartigkeit mancher Regularien. Als besonders komplex und verwirrend gelten die Vorschriften bezüglich sexueller Inhalte.

In einem der Dokumente heißt es, bei Facebook würden jede Woche allein 6,5 Millionen Meldungen möglicher Fake-Konten (sogenannte FNRP; fake, not real person) bearbeitet.

Alarmierte Kritiker

Die Richtlinien werden anhand tausender Folien und Bilder erläutert. Diese dürften teilweise Kritiker alarmieren, die sagen, Facebook sei inzwischen so etwas wie ein Verlag und müsse als solcher mehr tun, um Hassinhalte oder verletzende und gewalttätige Inhalte zu entfernen. Anderseits dürften Verfechter der Meinungsfreiheit beunruhigt darüber sein, dass Facebook de facto eine Rolle als größter Zensor der Welt einnimmt. Beide Seiten werden mehr Transparenz fordern.

Im Laufe des vergangenen Jahres hat der Guardian Dokumente gesehen, die für die Moderatoren der Seite bestimmt waren. Darin heißt es:

  • Bemerkungen wie „Jemand sollte Trump erschießen“ sollten gelöscht werden, weil dieser als Staatschef einer geschützten Personengruppe angehört. Hingegen könne es durchaus erlaubt sein, zu schreiben: „Um einer Schlampe den Hals zu brechen, muss man mit ganzer Kraft an der Mitte ihres Halses ansetzen“. Auch „Fick dich und stirb“ könne erlaubt sein. In beiden Fällen handele es sich nicht um glaubhafte Drohungen.
  • Videos, die gewaltsame Tode zeigen, sollten zwar als „verstörend“ gekennzeichnet werden, müssten aber nicht in jedem Fall gelöscht werden, da sie dazu beitragen könnten, ein Bewusstsein für Themen wie psychische Erkrankungen zu schaffen.
  • Gewisse Fotos physischen, aber nicht sexuellen Missbrauchs und der Schikane von Kindern müssen nicht unbedingt gelöscht oder bearbeitet werden, wenn sie kein sadistisches Element enthielten oder den Missbrauch gutheißen würden.
  • Fotos, die den Missbrauch von Tieren zeigen, dürfen geteilt werden. Nur extrem erschütternde Darstellungen müssen als „verstörend“ gekennzeichnet werden.
  • Jede „handgemachte“ Kunst, die Nacktheit oder sexuelle Aktivitäten zeigt, ist erlaubt. Digital erzeugte Kunst, die sexuelle Aktivitäten zeigt, ist es nicht.
  • Videoaufnahmen von Abtreibungen sind erlaubt, solange darin keine nackte Haut zu sehen ist.
  • Facebook erlaubt Menschen, die versuchen, sich selbst zu verletzen, dieses live auf der Seite zu zeigen, weil man „Menschen in Not nicht bestrafen oder bedrängen will“.
  • Jeder, der mehr als hunderttausend Follower verzeichnet, gilt als Person des öffentlichen Lebens. Diesen werden nicht die gleichen Schutzmaßnahmen zugestanden, wie Privatpersonen.

Geleakte Dokumente wie diese legen den Schluss nahe, dass gravierende und traumatisierende Inhalte möglich sind. Facebook-Nutzer können zum Beispiel durchaus Selbstverletzungen im Livestream auf der Seite zeigen. Die internen Unterlagen zeigen auch, wie man versucht, einen Weg zu finden, Hilferufe zu ermöglichen, gleichzeitig aber Trittbrettfahrer nicht zuzulassen. Selbst zu Themen wie Spielmanipulation und Kannibalismus existieren Vorgaben.

Zehn Sekunden pro Entscheidung

Die Facebook-Files ermöglichen erstmals einen Blick auf die Regeln und Normen der Seite, die in Europa und den USA unter immensem politischen Druck steht. Und sie veranschaulichen die Herausforderungen, vor denen die Beteiligten stehen. Führungskräfte müssen auf neue Phänomene wie Rachepornos reagieren. Moderatoren berichten, sie seien überfordert von der Menge des zu bewertenden Materials. Oftmals blieben ihnen „nur zehn Sekunden“, um eine Entscheidung zu treffen.

„Kleines Mädchen muss es für sich behalten, weil Papa ihr das Gesicht zertrümmert“.

Die Regeln erlauben einen weiten Spielraum, um schockierende Inhalte zu verbreiten. So lauten Äußerungen, die den Dokumenten zufolge durchaus gestatten sein dürfen, etwa so: „Kleines Mädchen muss es für sich behalten, weil Papa ihr das Gesicht zertrümmert“. Oder: „Ich hoffe, jemand tötet dich“. Sie gelten als zu allgemein oder nicht glaubhaft. In einem der geleakten Dokumente räumt Facebook ein: „Menschen verwenden im Internet gewaltsame Sprache, um Frustration zum Ausdruck zu bringen.“ Sie fühlten sich dabei auf der Seite „sicher“. Weiter heißt es: „Sie haben das Gefühl, das Thema werde sie nicht wieder einholen und sind gleichgültig gegenüber der Person, gegen die sich ihre Drohungen richten, da die Kommunikation über Geräte im Gegensatz zu der von Angesicht zu Angesicht für einen Mangel an Empathie sorgt.“

„Wir sollten sagen, dass gewaltsame Sprache in den meisten Fällen nicht glaubwürdig ist, solange ihre Spezifität uns nicht einen vernünftigen Grund zu der Annahme gibt, dass es sich nicht mehr um eine bloße Emotionsäußerung handelt, sondern ein Übergang zu einem Plan oder einer Verschwörung vorliegt. Aus dieser Perspektive sind Äußerungen wie 'Ich werde dich töten' oder 'Fick dich und stirb' nicht glaubhaft, sondern stellen einen gewaltsamen Ausdruck der Ablehnung und Frustration dar.“ Weiter heißt es: “Allgemein drücken Menschen Geringschätzung oder Dissens durch Drohungen oder Aufrufen zu Gewalt auf, die in der Regel scherzhaft oder nicht ernst gemeint sind.“ Daraus folge, dass „nicht alle unangenehmen oder verstörenden Inhalte gegen unsere Community Standards verstoßen.“

Monika Bickert, ‎die für die Richtlinien zuständige Facebook-Managerin, sagte hierzu, bei annähernd zwei Milliarden Nutzern sei es schwer, einen Konsens darüber zu finden, was erlaubt sein dürfe. „Wir haben eine wirklich vielfältige, weltweite Gemeinschaft und die Menschen haben sehr unterschiedliche Vorstellungen davon, was okay ist. Egal, wo man die Linie zieht, wird es immer Grauzonen geben. So ist zum Beispiel die Grenze zwischen Satire, Humor und unangemessenen Inhalten zuweilen sehr grau“, so Bickert.

"Es ist absolut unsere Verantwortung, die Sache im Griff zu haben. Das Unternehmen sieht sich hier in der Pflicht."

Bickert erklärte außerdem: „Wir fühlen uns verantwortlich dafür, dass die Mitglieder unserer Community sich sicher fühlen. Es ist absolut unsere Verantwortung, die Sache im Griff zu haben. Das Unternehmen sieht sich hier in der Pflicht. Wir werden weiterhin in die proaktive Gewährleistung der Sicherheit auf der Seite investieren. Wir wollen die Leute aber auch in die Lage versetzen, uns jeden Inhalt zu melden, der eine Verletzung unserer Standards darstellt.“ Einige beleidigende oder anstößige Inhalte könnten durchaus in bestimmten Kontexten gegen die Facebook-Regeln verstoßen, in anderen aber nicht.

Facebook im Minenfeld

Die durch die Leaks bekannt gewordenen Leitlinien zu Themen wie gewaltsamem Tod, Darstellungen von nicht sexueller, physischer Kindesmisshandlung oder Tierquälerei zeigen, wie die Seite versucht, in einem Minenfeld zu navigieren. Unter anderem ist in den Dokumenten zu lesen: „Videos von gewaltsamen Todesfällen können verstörend sein, können aber helfen, ein Bewusstsein zu schaffen. Wir glauben, dass Minderjährige in Bezug auf Videos Schutz benötigen und Erwachsene die Wahl brauchen. Wir kennzeichnen Videos, die den gewaltsamen Tod eines Menschen zeigen, als 'verstörend'“. Derartiges Material sollte vor „Minderjährigen versteckt“, aber nicht automatisch gelöscht werden, da es „einen wertvollen Beitrag dazu leisten könne, ein Bewusstsein für selbstverletzendes Verhalten, psychische Erkrankungen oder Kriegsverbrechen und andere wichtige Themen zu schaffen.“

Zum Thema nicht-sexueller, physischer Kindesmisshandlung heißt es: „ Wir bearbeiten keine Fotos von Kindesmisshandlung. Videos von Kindesmisshandlungen werden als verstörend gekennzeichnet. Wir löschen Darstellungen von Kindesmisshandlungen, wenn diese aus Sadismus geteilt werden oder den Kindesmissbrauch gutheißen.“

Auf einer Folie wird erklärt, dass Beweise für nicht-sexuellen Kindesmissbrauch deshalb nicht automatisch gelöscht würden, damit „das Kind identifiziert und gerettet werden [kann]. Wir sorgen aber für Schutzmaßnahmen, um die Nutzer davon abzuschirmen.“ Diese Maßnahmen könnten etwa in einer Warnung vor verstörenden Inhalten eines Videos bestehen. Facebook bestätigt: „Es gibt Situationen, in denen wir Bilder von nicht-sexuellem Missbrauch eines Kindes erlauben, um dem Kind helfen zu können.“

Richtlinien für Nacktheit

In Bezug auf Tierquälerei sagt Facebook: „Wir erlauben den Nutzern, Bilder von Tierquälerei zu zeigen, um ein Bewusstsein dafür zu schaffen und den Missbrauch der Tiere zu verurteilen. Hingegen löschen wir Inhalte, die Tierquälerei gutheißen.“ Die Dateien zeigen, dass Facebook seine Richtlinien zum Thema Nacktheit überarbeitet hat, nachdem es im vergangenen Jahr zu einem Aufschrei gekommen war, als ein ikonisches Foto aus dem Vietnamkrieg gelöscht wurde, weil das Mädchen, dass auf diesem zu sehen war, unbekleidet war. „Berichtenswerte Ausnahmen“ sind nun unter den „Krieg gegen den Terror“-Richtlinien erlaubt. Eine Grenze wird allerdings bei Bildern von „Nacktheit von Kindern im Kontext des Holocaust“ gezogen.

"Deshalb ist es manchmal wichtig, in welchem Kontext eine Gewaltdarstellung geteilt wird.“

Facebook teilte dem Guardian mit, man verwende Software, um grausame Bilder teilweise schon abzufangen, bevor sie überhaupt auf die Seite gelangen. Man wolle aber auch, dass „die Menschen globale und aktuelle Ereignisse diskutieren können [...] deshalb ist es manchmal wichtig, in welchem Kontext eine Gewaltdarstellung geteilt wird.“

Einige Kritiker in den USA und Europa fordern, dass die Seite die gleiche Regularien erfüllen müsse, wie Mainstreamfernseh- und Radiosender und Verlage.

17:07 24.05.2017
Geschrieben von

Nick Hopkins | The Guardian

Der Freitag ist Syndication-Partner der britischen Tageszeitung The Guardian
Schreiber 0 Leser 4503
The Guardian

Kommentare 2