Facebook: Algorithmen können irren

Facebook Der Social-Media-Gigant soll zu einer Art ”Superverlag” werden. Eine Forderung, der man nur mit weitreichenden Algorithmen begegnen könnte. Doch was, wenn diese irren?
Bei diesem Beitrag handelt es sich um ein Blog aus der Freitag-Community

Der Ruf der Politik und großen Verlagshäuser nach einer Art “Super-Chefredakteur” bei Facebook wird immer lauter. “Fake-News” und daraus resultierende “persönliche Fehlentscheidungen” der Nutzer des weltweit größten Sozialen Netzwerks sollen eingedämmt werden. Doch was in Anbetracht von monatlich 1,59 Milliarden aktiven Usern (offizielle Facebook-Nutzerzahlen für das Jahr 2016) nicht einmal für unmittelbar strafrechtlich relevante Postings in vollem Umfang funktioniert, soll nun auch noch für eventuelle “Fake-News” (nicht) funktionieren. Um den Schein einer möglichen Zensur zu wahren, müssen also noch mehr Algorithmen her. Doch: Algorithmen können irren.

Algorithmen als Chefredakteure

Wer sich Facebook gerne als Verlag wünscht, welcher uneingeschränkt für seine öffentlich gemachten Inhalte haftet, muss sich der Folgen bewusst sein: Ein Soziales Netzwerk, dessen Kommunikationsaufkommen eher dem einer Telefongesellschaft gleicht, kann einer geforderten Zensur - wenn überhaupt - nur mit umfangreichen Algorithmen Herr werden. Doch ist es nicht so, dass eine solche Zensur auch unweigerlich Fehlentscheidungen nach sich zieht, die ebenso weitreichende Folgen wie eine Nicht-Zensur haben könnten: nämlich das Vorenthalten von Informationen, aufgrund derer sich Nutzer ein klares und vor allem eigenes Bild eines Sachverhaltes machen möchten?

Der (angeblich) allwissende Algorithmus

Bei diesem Ruf nach noch mehr Algorithmen fühlt man sich irgendwie an diese Technologie erinnert, die in den USA irgendwann einmal Straftaten vorhersehen soll. Die so genannte “Future Attribute Screening Technology" (FAST) erfasst dabei digital gesammelte Daten wie ethnische Zugehörigkeit, Geschlecht sowie das Alter und kombiniert diese mit der Atemfrequenz und dem Puls einer Person. Die Gefahr: Es können schnell auch Unschuldige ins Visier der Ermittler geraten, die wiederum aufgrund einer immer weiter fortschreitenden Abgabe der eigenen Verantwortung an Algorithmen und Computersysteme, an solch einem Punkt kaum noch eine eigene Entscheidung über Schuld und Unschuld treffen könnten. Man mag sich gar nicht vorstellen, wie sich die zu Unrecht beschuldigten Menschen an dieser Stelle fühlen würden. Auf die Facebook-Algorithmen übertragen bedeutet das: Es können News als Fake aussortiert werden, die eigentlich der Wahrheit entsprechen.

Ein gesellschaftliches Pulverfass der Entmündigung

Facebook würde also zu einem noch mächtigeren Meinungsmacher für gesellschaftliche und politische Entscheidungen. Und auch wenn genau dies der Hintergrund der gesamten Debatte um die Zensur von Fake-News ist, würde man die Nutzer an einem gewissen Punkt entmündigen, sich selbst ein Bild zu machen und alleine über Wahrheit und Lüge zu entscheiden - und zwar ebenso vor dem Teilen, als auch beim Lesen einer bereits geposteten Nachricht. Doch eine Verstärkung des Gefühls vieler Menschen, dass wir als Bürger nicht ernst genommen werden und unsere Kompetenz in Sachen Meinungsbildung über politische Sachverhalte nicht ausreiche, können wir angesichts der gesellschaftlichen Spaltung in nahezu allen Teilen unserer Welt nicht gebrauchen.

Dieser Beitrag gibt die Meinung des Autors wieder, nicht notwendigerweise die der Redaktion des Freitag.
Geschrieben von

Fabian Görg

Freier Journalist, Texter & Content-Manager
Fabian Görg

Kommentare 3