Facebook braucht eine Redaktion

Hassreden Soziale Netzwerke sind längst keine neutralen Diensteanbieter mehr. Es wird Zeit, dass auch sie ihrer Verantwortung gerecht werden – und ihre Posts prüfen
Facebook braucht eine Redaktion
Jeder Blogger muss den Rundfunkstaatsvertrag einhalten, warum nicht auch Facebook?
Illustration: der Freitag

Die Repräsentanten der Republik sind nervös. Vier Monate vor der Bundestagswahl treibt sie die Sorge um, eine kleine, zu allem entschlossene Gruppe von Hassern und Lügnern, Hackern und Cyberkriegern könnte mithilfe des Internets den inneren Frieden stören und die Bundestagswahlen manipulieren. Mit gezielt lancierten Enthüllungen, gefälschten Politikerzitaten, Hetzkampagnen und perfiden Verleumdungen könnte das fragile Gleichgewicht der Gesellschaft aus der Balance geraten und Kräfte freisetzen, die niemand wieder einfangen kann. Unruhig sind vor allem die Ehrgeizigsten. Sie wollen handeln. Wie Bundesjustizminister Heiko Maas, der im März dieses Jahres den Entwurf eines Gesetzes vorlegte, das den schönen Namen „Netzwerkdurchsetzungsgesetz“ (NetzDG) trägt. Es soll dafür sorgen, dass die Hasser und Lügner nicht die Oberhand gewinnen.

Natürlich ist ein solcher Anspruch aberwitzig. Doch Heiko Maas glaubt, ein passendes Sanktionsinstrument gefunden zu haben: Geld! Mit drakonischen Bußgeldern von bis zu 50 Millionen Euro will er erreichen, dass die Betreiber von Facebook, Twitter oder Youtube Hass-Botschaften und Falschnachrichten binnen 24 Stunden entfernen. Außerdem sollen sie die Adressen der Hasser und Lügner an jeden herausgeben, der sich juristisch dagegen wehren möchte. Kritiker sehen darin – völlig zu Recht – ein Einfallstor für Zensur. Denn die Online-Plattformen würden, um Bußgelder zu vermeiden, alle Inhalte entfernen, die von betroffenen Bürgern oder organisierten Gruppen – aus welchen Gründen auch immer – beanstandet werden. Das geplante NetzDG würde so das „Ende der Anonymität“ herbeiführen und „wahllose Löschorgien“ provozieren. Wie sollen, fragen Bürgerrechtler, Digitalverbände, Verleger und Oppositionspolitiker in heller Empörung, kommerzielle Unternehmen in 24 Stunden Entscheidungen treffen, die selbst Gerichten nach langwieriger und sorgfältiger Prüfung nur mit Mühe gelingen?

Ja, wie soll das gehen?

So nachvollziehbar diese Befürchtungen sind, so fest verschließen die Kritiker die Augen vor einem anderen Problem: Sie halten es offenbar für vertretbar, dass Online-Plattformen ein Sonderrecht auf organisierte Verantwortungslosigkeit für sich in Anspruch nehmen dürfen. „Meinungsäußerungen“ wie „Ich weiß, wo du wohnst, Judensau!“ oder „Renate K. will Kinder ficken“ können auf Online-Plattformen erst mal veröffentlicht werden, bevor sie – nach einer gewissen „Schonfrist“ – wieder gelöscht werden müssen. Das ist so, als dürfte ein Restaurantbesitzer seinen Gästen erst mal wahllos Speisen und Getränke anbieten, um am nächsten Tag zu sehen, was er besser nicht mehr anbieten sollte, weil die Gäste sich erbrochen haben oder mit einer Lebensmittelvergiftung im Krankenhaus liegen.

Provider-Privileg

Konstruiert haben dieses Sonderrecht, das man auch „Provider-Privileg“ nennt, die Gerichte und das von der Großen Koalition 2007 beschlossene Telemediengesetz (TMG). Dort heißt es in Paragraf 10: „Diensteanbieter sind für fremde Informationen, die sie für einen Nutzer speichern, nicht verantwortlich, sofern sie 1. keine Kenntnis von der rechtswidrigen Handlung oder der Information haben ...“ und 2. „unverzüglich tätig geworden sind, um die Information zu entfernen oder den Zugang zu ihr zu sperren, sobald sie diese Kenntnis erlangt haben“.

Das Provider-Privileg, das erkennbar aus der Telekom-Regulierung abgeleitet und auf das Internet übertragen wurde, soll festschreiben, dass der Überbringer einer Nachricht (also der Postbote) für den Inhalt der überbrachten Nachricht nicht verantwortlich gemacht werden kann. Internet-Plattformen, so die Lesart der damaligen Richter, leiten als neutrale „Hosting-Provider“ nur durch, was Nutzer auf eigene Verantwortung auf die Plattform hochladen wollen.

2007 schien diese Lesart noch gerechtfertigt zu sein, denn Facebook war damals drei Jahre alt, Youtube zwei, und Twitter war ein einjähriger Säugling. Facebook galt als weitgehend geschlossener Club für private Gruppenkommunikation. Dass sich Facebook-Nutzer kleine Briefchen schrieben oder Party-Fotos mit ihren Freunden teilten, beeinflusste nicht die öffentliche Meinungsbildung. Heute aber ist Facebook eine globale, werbefinanzierte Nachrichtenschleuder mit enormer Wirkung auf die öffentliche Meinung. In den „Allgemeinen Geschäftsbedingungen“, in den „Gemeinschaftsstandards“ sowie in den „elf Geboten der Sicherheit“, die jeder Facebook-Nutzer akzeptieren muss, ist penibel festgelegt, welche Inhalte auf der Plattform unerwünscht sind und welche Rechte man an Facebook abtritt. Der Begriff „Nutzer“ ist also längst Augenwischerei. In Wahrheit sind die Nutzer vertraglich gebundene Mitarbeiter des Unternehmens. Sie haben sich entschlossen, gratis für Facebook zu arbeiten, indem sie Inhalte erstellen oder teilen, die dem Konzern mittels beigefügter Werbeschaltungen hohe Profite sichern. Paragraf 10 des Telemediengesetzes sagt dazu in aller Deutlichkeit: Die inhaltliche Nichtverantwortung eines Diensteanbieters wie Facebook endet dann, „wenn der Nutzer dem Diensteanbieter untersteht oder von ihm beaufsichtigt wird“. Und das ist hier der Fall. Beaufsichtigt werden die Facebook-Nutzer (die Mitarbeiter!) inzwischen umfassend. Nicht nur durch ausgefeilte interne Löschregeln, wie sie der Guardian kürzlich veröffentlichte, nicht nur durch beauftragte externe Aufpasser und Faktenchecker wie Arvato und Correctiv, sondern mittlerweile auch durch Algorithmen, die Unerwünschtes filtern, gewichten oder aussortieren. Solche „Upload-Filter“ sollen in der geplanten EU-Urheberrechts-Richtlinie sogar bindend vorgeschrieben werden.

Was Facebook zulässt

Im Laufe des vergangenen Jahres hat der Guardian Dokumente gesehen, die für die Facebook-Moderatoren bestimmt waren. Darin heißt es:

Bemerkungen wie „Jemand sollte Trump erschießen“ sollten gelöscht werden, weil dieser als Staatschef einer geschützten Gruppe angehört. Hingegen könne es durchaus erlaubt sein, zu schreiben: „Um einer Schlampe den Hals zu brechen, muss man mit ganzer Kraft an der Mitte ihres Halses ansetzen.“ Auch „Fick dich und stirb“ könne erlaubt sein. Beides seien nicht glaubhafte Drohungen.

Videos, die gewaltsame Tode zeigen, sollten zwar als „verstörend“ gekennzeichnet werden, müssten aber nicht in jedem Fall gelöscht werden. Sie könnten beitragen, ein Bewusstsein für psychische Erkrankungen zu schaffen.

Gewisse Fotos der Schikane sowie des physischen, aber nicht sexuellen Missbrauchs von Kindern müssten nicht unbedingt gelöscht oder bearbeitet werden, wenn sie keine sadistischen Elemente enthielten und den Missbrauch nicht gutheißen würden.
Fotos, die den Missbrauch von Tieren zeigen, sind er-laubt. Nur extrem erschütternde Darstellungen seien als „verstörend“ zu kennzeichnen.

Jede „handgemachte“ Kunst, die Nacktheit oder sexuelle Aktivitäten zeigt, ist erlaubt. Digital erzeugte, die Sex zeigt, ist es nicht. Videoaufnahmen von Abtreibungen sind erlaubt, solange darin keine nackte Haut zu sehen ist.

Mark Zuckerberg, Gründer und Vorstandsvorsitzender von Facebook, wächst also – nicht ganz freiwillig – in die Rolle eines Großverlegers hinein. In seinem jüngsten, am 16. Februar 2017 veröffentlichten Manifest legt er dar, wie er sich die Zukunft seines Unternehmens vorstellt. So will er mittels algorithmischer Neujustierung sicherstellen, dass extrem eingestellte „Nutzer“ künftig auch gegenteilige Meinungen zur Kenntnis nehmen müssen. Außerdem will er das Teilen „polarisierender Informationen“ (so nennt Zuckerberg Fake News und Hasspostings) auf technisch ausgeklügelte Weise erschweren oder gar unterbinden. Er formuliert damit Ansprüche und redaktionelle Vorstellungen eines typischen Tendenzbetriebs, eines Verlags. Denn das Auswählen, Sortieren und Gewichten von Informationen und Meinungen ist das zentrale Geschäft jedes Medienunternehmens. Es verwundert deshalb nicht, dass Facebook in der Mediendatenbank des „Instituts für Medien- und Kommunikationspolitik“ neuerdings als „Medienkonzern“ gelistet wird – auf Rang 13 der 100 weltgrößten Medienunternehmen.

Für Telemedien wie das heutige Facebook müsste also nicht mehr das aus dem Telekommunikationsbetrieb abgeleitete Provider-Privileg gelten, sondern das aus dem Rundfunkrecht abgeleitete Verantwortungsprinzip. Im Abschnitt „Telemedien“ des Rundfunkstaatsvertrages heißt es in Paragraf 54 unmissverständlich: „Telemedien mit journalistisch-redaktionell gestalteten Angeboten ... haben den anerkannten journalistischen Grundsätzen zu entsprechen. Nachrichten sind vom Anbieter vor ihrer Verbreitung mit der nach den Umständen gebotenen Sorgfalt auf Inhalt, Herkunft und Wahrheit zu prüfen.“

Jeder Blogger, der nicht nur Katzenfotos und private Erlebnisse auf seiner Webseite postet, muss sich nach diesem Rundfunkstaatsvertrag richten, warum also nicht ein Massenmedium wie Facebook – zumindest, was jenen Teil betrifft, der öffentlich zugänglich ist? Eine Aufspaltung des Konzerns in einen neutralen Diensteanbieter für geschlossene Gruppenkommunikation auf der einen Seite und ein auf Öffentlichkeit abzielendes Medienangebot auf der anderen Seite wäre eine denkbare Lösung.

Was wir brauchen, ist also kein neues „Netzwerkdurchsetzungsgesetz“, das die Bestimmungen des Telemediengesetzes deutlich verschärft und dadurch zahllose Folgeprobleme verursacht; was wir brauchen, ist die Einsicht in die Weiterentwicklung der bestehenden Internet-Plattformen. Aus den ehemals neutralen Diensteanbietern, die nur eine technische Infrastruktur zur Verfügung stellten, sind im Laufe der Jahre sogenannte Intermediäre geworden (Zwitter oder Zwischenlösungen), die sich unter dem Druck der Verhältnisse nun in riesige Medienkonglomerate verwandeln. Für diese aber brauchen wir keine neuen Gesetze. Es genügen jene Regelungen und Selbstverpflichtungen, die bereits existieren.

Nicht die Selbstkontrolle wäre für Facebook daher unzumutbar, unzumutbar ist vielmehr, dass wir uns an den Umstand gewöhnt haben, dass digitale Unternehmen Inhalte wahllos veröffentlichen dürfen – und erst hinterher dazu genötigt werden, das auszusortieren, was sie besser nicht veröffentlicht hätten, weil es den Gesetzen oder auch nur dem menschlichen Anstand widerspricht. Diese Verantwortungslosigkeit, die uns interessierte Kreise als Meinungsfreiheit verkaufen, muss jedes Unternehmen in die Bredouille bringen.

Wer Inhalte gewissenhaft prüft, bevor sie veröffentlicht werden, übernimmt eben gerade nicht „staatliche Rechtsdurchsetzungsaufgaben“, wie Kritiker des NetzDG gern unterstellen, er kommt lediglich seiner Sorgfaltspflicht nach. Verhütung ist immer besser als die Pille danach.

06:00 14.06.2017
Geschrieben von

Wolfgang Michal

Journalist; Themen: Umbrüche & Entwicklungen
Schreiber 0 Leser 12
Wolfgang Michal

Kommentare