Unter Zugzwang

Soziale Medien Auf die Online-Hassnachrichten gegen die Journalistin Caroline Criado-Perez reagierte die Polizei. Warum fühlen sich Twitter und Facebook nicht verantwortlich?
Unter Zugzwang

Foto: Yasuyoshi Chiba/ AFP/ Getty Images

Es ist klar, warum Twitter in den letzen Tagen darauf gehofft hat, dass die Empörung über die Vergewaltigungs- und Todesdrohungen gegen die freie Journalistin Caroline Criado-Perez schnell wieder legen: Wenn Social-Media-Unternehmen der Forderung nachkommen würden, mehr Verantwortung für die Inhalte zu übernehmen, die ihre Nutzer erstellen, müssten sie nicht nur ihr Geschäftsmodell und ihr Selbstverständnisse ändern, es würde sie auch teuer zu stehen kommen.

Caroline Criado-Perez war zusammen mit der Labour-Abgeordneten Stella Creasy nach einer erfolgreichen Kampagne für Abbildungen von Frauen auf Banknoten via Twitter massiv angefeindet worden. Die Politikerin erstatte daraufhin Anzeige bei der Polizei, kurze Zeit später wurde ein 21-Jähriger in Manchester verhaftet.

Unternehmen wie Twitter und Facebook beschreiben sich gern als Plattformen, die Kommunikation ermöglichen, aber keine Inhalte veröffentlichen – ein wichtiger Unterschied, der bedeutet, dass sie für Trolling oder Missbrauch nicht haftbar gemacht werden können. Doch denjenigen, die von Beschimpfungen und Drohungen persönlich betroffen sind, dürfte diese Unterscheidung in Anbetracht der schieren Größe und der Gewinne, die mit diesem Geschäftsmodell erzielt werden, immer weniger einleuchten. Eine Online-Petition fordert nun von Twitter schärfere Maßnahmen gegen Cybermobbing und mehr Schutz für die Nutzer. Das findet Zustimmung – es haben sich bis Dienstag bereits über 80.000 Unterstützer eingetragen.

Beide Unternehmen beharren darauf, im rechtlichen Sinne Kommunikationsunternehmen zu sein, die ebenso wenig für Inhalte belangt werden können wie ein Telekommunikationsunternehmen für obszöne Telefonanrufe. Beide beschäftigen jedoch Teams, die gemeldete Inhalte untersuchen und entfernen, wo sie dies für gerechtfertigt halten.

Kontosperrung reicht nicht aus

Auch Charlotte Harris von der Kanzlei Mishcon de Reya ist der Auffassung, die Position von Twitter und Facebook sei immer weniger haltbar: „Mit Bekanntheit und Macht wächst die Verantwortung. Sie wollen sichergehen, nicht für individuelle Tweets und Twitter-Nutzer verantwortlich gemacht werden zu können. Aber es reicht nicht aus, dass jemandem das Konto gesperrt wird, wenn er gegen die Nutzungsbedingungen verstößt.“

„Wenn gegen das Gesetz verstoßen wird, sollte Twitter besser mithelfen. Das betrifft rassistische Beleidigungen und Gewalt ebenso wie die schrecklichen Beleidigungen, die es in jüngster Zweit gegen Frauen gegeben hat. Wenn solche Themen über Jahre hinweg immer wieder aufkommen, muss man sich mit ihnen auseinandersetzen – und das hat Twitter nicht getan. Twitter muss mehr Verantwortung übernehmen und entschiedener gegen Leute vorgehen, die die Seite nutzen, um andere zu beleidigen und diejenigen beschützen, die angegriffen werden.“

Harris sieht das demokratische Image des Unternehmens beschädigt. Wer nichts tue, ermutige letztlich zu solchem Verhalten, anstatt seine Nutzer zu erziehen. Das mangelnde Vorgehen des Unternehmens fördere diese Atmosphäre noch zusätzlich, anstatt die Nutzer zu erziehen. (...)

Ein Wendepunkt im öffentlichen Verständnis

Niri Shan, Verantwortliche für Medienrecht bei der Kanzlei Taylor Wessing sieht im Fall McAlpine – in dem der ehemalige Vorsitzende der britischen Konservativen eine Reihe von Leuten verklagte, weil sie nach einer Sendung auf Newsnight beleidigende Tweets geschrieben hatten – einen Wendepunkt im öffentlichen Verständnis. „Der Fall McAlpine war richtungsweisend, denn durch ihn wurde jedem klar, dass man sich strafbar machen kann, wenn man Beleidigungen twittert. Dahinter steckt die Strategie, mit Fällen von großem öffentlichem Interesse ein Exempel zu statuieren, um so das öffentliche Bewusstsein zu verändern. Die Leute müssen verstehen, dass es Folgen hat und man nicht einfach Tweets abfeuern kann, wie es einem gefällt.“

Shan, die zuvor für Twitter gearbeitet hatte, verweist auf einen Fall zwischen Google und dem ehemaligen Tory-Gemeinderat Payam Tamiz, der den Suchmaschinenbetreiber erfolglos wegen Kommentaren verklagte, die Dritte auf dessen Blogger-Plattform hinterlassen hatten. Der Richter entschied, Google könne nach geltendem Recht nicht als Verlag betrachtet werden.

Facebook beschäftigt gegenwärtig ein Team von Moderatoren, das von Nutzern gemeldete Bilder überprüft und dann entscheidet, ob sie zulässig sind oder nicht. Sie müssen dabei den Vorgaben einer umfangreichen Anleitung folgen, nach der beispielsweise die Abbildung von Körperflüssigkeiten (mit Ausnahme von Sperma) zulässig sind, stillende Mütter hingegen nicht gezeigt werden dürfen.

Der Druck der öffentlichen Meinung

Facebook-Sprecher Iain Mackenzie erklärte, man sei dabei, das Niveau auf der Seite durch eine „Kultur der wahren Identität“ zu verbessern. „Indem man die Leute zwingt, ihre wahre Identität preiszugeben, entfernt man einen der entscheidenden Faktoren, der Trolling möglich macht – man kann sich dann einfach nicht mehr hinter einem Pseudonym verstecken. Bei den meisten reicht schon der Druck der öffentlichen Meinung, um sie von aggressivem Verhalten abzubringen.“

Mackenzie zufolge werden falsche Konten gelöscht. Des Weiteren gebe es in den Community-Standards in Bezug auf Volksverhetzung und Mobbing klare Regeln.

„Jeder Inhalt, der auf Facebook veröffentlicht wird, kann mittels einer „Bericht“-Option unserem Team gemeldet werden. Zusätzlich können die User jeden sperren, der sie drangsaliert, und damit sicherstellen, dass die Person nicht mehr weiter interagieren kann. Facebook ahndet asoziales Verhalten mit einer Kombination aus sozialen Mechanismen und technischen Lösungen, die der Zahl unserer Nutzer angemessen ist“, so Mackenzie weiter.

Gewaltige Ausmaße

Die Größe der beiden Unternehmen von einer Milliarde (Facebook) bzw. 200 Millionen Nutzern welttweit (Twitter) macht eine proaktive Moderatioin des Inhaltes nahezu unmöglich. Würden beide Seiten als Verleger oder Publizisten eingestuft und wären entsprechend stärker verpflichtet, anstößige Inhalte zu entfernen, wäre der erforderliche finanzielle und personelle Aufwand gewaltig.

Facebook gibt keine Auskunft darüber, wie viele Moderatoren es gegenwärtig beschäftigt, sondern erklärt lediglich, dass jeder gemeldete Inhalt von einem Menschen überprüft werde. „Es wird jedes Mal darüber diskutiert, welcher Inhalt auf Facebook geteilt werden darf. Bei jeder Regelung gibt es Fälle, die nicht eindeutig sind. Es gibt Dinge, die der eine zutiefst anstößig findet, ein anderer wiederum überhaupt nicht. Das ist bei jedem ein wenig anders. Beim Schutz des Einzelnen ist das schon eindeutiger. Unser Maßstab wird es immer sein, die Leute vor Drohungen, Verfolgung und Einschüchterungen zu schützen, während sie bei uns sind“, so Mackenzie.

Twitter will uns keine detaillierte Auskunft darüber geben, wie seine Moderatoren arbeiten. Sein Trust & Safety Team verfügt aber über Leute auf der ganzen Welt, sodass es mehre Zeitzonen abdecken kann. Jeder Tweet oder Account, der gemeldet wird, wird einzeln überprüft.

Die Herausforderung, der sich die Seite permanent gegenüber sieht, besteht in dem Grat, die Meldung von Missbrauch leicht, gleichzeitig aber nicht zu leicht zu machen – letzteres würde dazu führen, dass das System missbraucht wird (indem es gegen jemanden eingesetzt wird, um die Löschung seines Accounts zu provozieren) oder zu zu vielen Meldungen, die gar nicht mehr alle bearbeitet werden könnten.

Übersetzung: Holger Hutt
16:56 30.07.2013
Geschrieben von

Jemima Kiss and Charles Arthur | The Guardian

Der Freitag ist Syndication-Partner der britischen Tageszeitung The Guardian
Schreiber 0 Leser 7684
The Guardian

Ihnen gefällt der Artikel?

Dann lesen Sie noch mehr Beiträge und testen Sie die nächsten drei Ausgaben des Freitag kostenlos:

Abobreaker Startseite 3NOP plus Verl. ZU Baumwolltasche

Kommentare 4

Avatar
Ehemaliger Nutzer | Community
Avatar
Ehemaliger Nutzer | Community