Jakob Steinschaden
13.05.2015 | 11:46 8

Die Filterblase gibt es, aber wer ist schuld?

Facebook Sind es die Algorithmen oder wir selbst, die bestimmen, welche News wir lesen? Eine neue Studie von Facebook will das endlich klären – und wird genau dafür kritisiert

In einer neuen Studie, die im Science Magazine veröffentlicht wurde, versucht das Data Science Team von Facebook zu widerlegen, dass der News Feed des Social Networks uns nur mit Informationen versorgt, die zu unserer eigenen Meinung passen. Doch es gibt Kritik an den Ergebnissen.


Warum ist das wichtig? Algorithmen haben immer größeren Einfluss darauf, wie wir die Welt wahrnehmen – was die Frage aufwirft, wie sich das auf Politik und Wirtschaft auswirkt.

  • Facebook versucht mit einer neuen Studie, die Verantwortung seines Einflusses auf politische Meinungsbildung von sich zu weisen.

  • Forscher kritisieren die Studie wegen Methodik, Größe der Stichprobe und dem Einsatz zu PR-Zwecken.

  • Klar wird jedenfalls, dass sich User tatsächlich in einer Filterblase befinden.


Facebook könnte man mit 938 Millionen täglich aktiven Nutzern durchaus als die größte Tageszeitung der Welt bezeichnen – in den USA sagen etwa 30 Prozent der Erwachsenen, dass die wichtigste Quelle für News Facebook ist. Kein Wunder: Seit geraumer Zeit mischen sich viele Links zu News-Artikel unter den restlichen Content, und für Online-Medien hat sich das Social Network zu einer wichtigen Traffic-Quelle entwickelt. Kritik an der Auswahl der Meldungen, die den Usern präsentiert werden, gibt es schon länger. Eli Pariser, heute Chef der Viral-Content-Seite Upworthy, hat 2012 mit seinem Buch “The Filter Bubble” den Begriff der Filterblase geprägt und eindrücklich davor gewarnt, dass uns Facebook nur Inhalte präsentiert, die zu unseren Meinungen und Einstellungen passen und ausblendet, was ihnen widerspricht.

Eine kleine Stichprobe

Das Data Science Team von Facebook um Eytan Bakshy versucht nun, diese Vorwürfe zu wiederlegen. Einer eigenen Studie zufolge, bei der das Klickverhalten von 10,1 Millionen Facebook-Nutzern analysiert wurde, sollen die User ein deutlich breiteres Spektrum an politischen Nachrichten zu sehen bekommen, als Kritiker sagen. Den Ergebnissen zufolge würde der Algorithmus, der die Inhalte im News Feed bestimmt, vor konservativen Nutzern nur fünf Prozent der liberalen Inhalte verstecken, liberal gesinnte User würden acht Prozent der konservativen Inhalte nicht zu sehen bekommen. Außerdem sei die Wahrscheinlichkeit, dass ein konservativer Nutzer auf einen liberalen Inhalt klickt, nur um 17 Prozent geringer als bei anderen Inhalten, Liberale kämen dabei auf nur sechs Prozent. Insgesamt, so die Studie weiter, hätten im Schnitt 23 Prozent der Facebook-Freunde eine konträre politische Einstellung, 29 Prozent der News-Stories würden eine Sichtweise repräsentieren, die mit der Meinung der User in Konflikt steht. Insgesamt sollen nur sieben Prozent der User auf “harte News”, also Inhalte zu nationalen oder internationalen Politik, klicken.

Die Schlussfolgerung der Facebook-Forscher: Nicht der Algorithmus, der die Beiträge für den Nutzer auf Basis seiner Daten (Freunde, Likes, Klickverhalten, etc.) auswählt, sei schuld an der Filterblase, sondern die Nutzer selbst. Entscheidend sei die Größe und die Diversität des Freundeskreises, von dem die Nachrichten kommen. Das ist sicher plausibel: Menschen haben sich in Höhlen, Zünften, Vereinen, Parteien, Kämmern und anderen Gemeinschaftsformen schon immer gerne mit jenen umgeben, die die eigene Lebensweise teilen. Die Hoffnung, dass die Digitalisierung diesen Scheuklappen-Effekt aufbricht und für eine breite Wahrnehmung an Meinungen und Positionen sorgt, dürfte sich so schnell nicht erfüllen.

Einseitige Nachrichtenauswahl

Kritik an der Facebook-Studie kommt etwa von der Journalistin Eva Wolfangel, die dahinter eine PR-Aktion zur Image-Aufbesserung von Facebook vermutet. “Bakshy und seine Kollegen bestätigen, dass der Algorithmus zu einer einseitigen Nachrichtenauswahl führt“, schreibt Wolfangel in Bezug auf das Forscher-Team von Facebook. “Welche Neuigkeiten ein Nutzer ganz oben angezeigt bekommt, entscheidet sich unter anderem danach, wie oft dieser Facebook besucht, wie intensiv er mit bestimmten Freunden interagiert und welche Links seines Newsfeed er in der Vergangenheit angeklickt hat. Neu ist lediglich die Erkenntnis, dass die Nutzer offenbar mehr Vielfalt präsentiert bekommen, als sie aufnehmen.

Auch die Forscherin Zeynep Tufekci von der University of North Carolina kann der Studie wenig abgewinnen. Aufgrund der Auswahl der Stichprobe (es wurden nur US-Nutzer ausgewählt, die ihre politische Einstellung selbst angegeben haben) könne man nicht auf die Gesamtheit schließen. Was sie aus der Studie liest: Der wahre Gatekeeper sei die Platzierung im News Feed, weil ganz oben positionierte Links viel mehr Klicks bekommen als jene, die unten gereiht werden. Forscher Christian Sandvig von der University of Michigan weist darauf hin, dass der News Feed bei Konservativen einen von 20, bei Liberalen einen von 13 konträren Artikeln filtere. Nathan Jurgenson, der für den Facebook-Rivalen Snapchat forscht, hat sich ebenfalls über die Studie ausgelassen und meint, dass die Studie methodisch schlecht durchgeführt worden sei und nicht von Science so schnell veröffentlicht hätte werden dürfen.

Was lernt nun unsereins von der wissenschaftlichen Debatte rund um den News Feed? Wer auch immer nun Schuld an der Filterblase ist – ob Algorithmus, Freundeskreis oder wir selbst –, man sollte sich der Echokammer immer bewusst sein und aktiv versuchen, konträre Meinungen wahrzunehmen. Sonst schwimmen wir noch in 100 Jahren in der eigenen Suppe.

Dieser Text erschien auf netzpiloten.de

Jakob Steinschaden ist seit 2006 publizistisch auf Papier und Pixel tätig. Er arbeitet in Österreich als Journalist und hat die beiden Sachbücher "Phänomen Facebook - Wie eine Webseite unser Leben auf den Kopf stellt" (2010) und "Digitaler Frühling - Wer das Netz hat, hat die Macht?" (2012) veröffentlicht. In seinem Blog“Jakkse.com” und in Vorträgen schreibt und spricht er gerne über die Menschen und ihr Internet – von Social Media über Netzaktivismus bis zu Start-ups

Kommentare (8)

Michael Angele 13.05.2015 | 17:03

Also ganz ehrlich gesagt, mag ja sein, dass Facebook einen Einfluss auf die Nachrichtenrezeption nimmt. Aber gegenüber dem klassischen Zeitungsleser ist das Pipifax. Früher hat man als linker FR-Leser die konservative FAZ einfach nicht gekauft. Da wurde doch ebenso gelesen, was zu "unseren Meinungen und Einstellungen pass(t) und ausblendet, was ihnen widerspricht."

Dersu Usala 13.05.2015 | 18:17

Das kam mir auch schnell in den Sinn, dass es die redaktionelle Vorauswahl für den Leser immer schon gab. Diese Selektion ist allerdings klarer für den Leser erkennbar, wenn er am Kiosk die FR auswählt und die FAZ liegen lässt. Der Leser stimmt dem aktiv zu. Das Kleingedruckte bei Facebook anzuerkennen, ist auch eine aktive Tat, aber naja...

Für den Internet-Googler alter Tage erfolgt die Filterung nach Relevanz, die durch Häufigkeit (mit Wichtung) von Verlinkung ermittelt wird. Auch bei Google hat sich was verschoben, und das fällt nicht so sehr auf, kann gar nicht auffallen. Ein konkretes Beispiel für mein Empfinden: Beim Google-Onlineshoppen vor einigen Jahren zeigte mir Google öfter ziemlich weit oben Ergebnisse von idealo.de. Das ist nun nicht mehr so. Kann auch an Amazon liegen, das einfach mal "besser" ist, deshalb im Googlefilter besser abschneidet. Andererseits gehört idealo zu Springer, Springer und Google zoffen sich.

Am Ende kenne ich die Wahrheit nicht. Mir unbemerkt neue Wahrheit Relevanz vorzutäuschen, ist aber definitiv möglich. Das will ich nicht gut finden.

silvio spottiswoode 14.05.2015 | 19:18

Guter Artikel. Danke.

Die Ironie ist doch, alle reden von Algorithmen als dem magischen, in steingemeisselten Element des Augenblicks, vergessen aber wie schnell man die Parameter verändern kann.

Neue Regierung - Beeinflussung der Nutzerwahrnehmung bei Inhalten vor Wahlen beispielsweise -, easy- peasy, no prob, can do ... Nichts ist einfacher als im Hintergrund unmerklich an den algorithmischen Vorgaben zu schrauben, um den Feed in eine wieimmerauch gerade gewünschte Richtungen zu drehen.

Algorithmen bedeuten totale Kontrolle über Inhalte. Ich kann Beiträge, die ungewünschte Begriffe oder Abbildungen enthalten nach belieben herausfiltern - einfach nicht mehr auftauchen lassen -, wohlgemerkt, ohne dass es der Userleserrezipient jemals auch nur erahnen könnte. Für Kontrollfreaks mit Weltherrschaftsambitionen ist das ein traumhaftes Geschäftsmodell. Ich gestehe ganz offen, Algorithmen interessieren micht sehr, jesses, ich wünschte das Leben wäre ein einziger Algorithmus ... Sagen wir's doch wie es ist: Der ausgelieferte User, der unmerklich manipulierte Leser in einer Blase der Gegenaufklärung, davon reden wir, wenn wir von Nachrichtenrezeption im Facebookfeed sprechen. In dem Fall dann aber nicht mehr selbst verschuldete Unmündigkeit. Die Dystopie hat einen Namen. Brave New World.

namenlos 15.05.2015 | 16:25

"In einer neuen Studie, die im Science Magazine veröffentlicht wurde, versucht das Data Science Team von Facebook zu widerlegen, dass der News Feed des Social Networks uns nur mit Informationen versorgt, die zu unserer eigenen Meinung passen. Doch es gibt Kritik an den Ergebnissen."

____________

Wer zahlt denn die Studie?

Und das wäre ja nichteinmal eine "Gefälligkeitsstudie" sondern lediglich eine weitere Nebelkerze obendrauf.

otto8 16.05.2015 | 20:12

So ein Denken geht aber davon aus, dass Facebooks Quasimonopol stabil wäre. Die Art und Weise, wie Google damals Yahoo vom Markt gefegt hat, wie schnell Myspace in die Bedeutungslosigkeit versunken ist, zeigt, dass die Marktführer unter einer Art virtuellem Konkurrenzdruck stehen. Es könnte immer ein anderer mit einem besseren, d.h. z.B. neutralerem Algorithmus kommen. Mit zu großer Tendenziösität würde Facebook ein Flanke öffnen, die es angreifbar macht.

Abgesang auf das Abendland hin oder her, wir wissen nicht was die Zukunft bringt. Aber vergleichen Sie das mal mit der Stabilität der Positionen in der Verlagswelt (Springer, Bertelsmann etc.). Die konnten und können es sich (noch) erlauben, politische Kampagnen fahren.

silvio spottiswoode 19.05.2015 | 00:26

Interessannte Überlegungen, definitiv. Dennoch. In der Kunst gibt es einen Punkt an dem bei der Nachfrage künstlerischer Werke eine Dynamik eintritt, die quasi aus sich selbst heraus die Verbreitung der Arbeiten garantiert. Kurz, wenn Dinge einen gewissen Bekanntheitsgrad überschreiten, sie so gut wie nicht mehr in die Bedeutungslosigkeit zurück fallen können, da von so vielfältigen Interessen gestützt ... Oder, anderes Beispiel, nehmen wir Googles evolutionäre Suchalgorythmen. Je mehr gegoogelt wird, desto besser und feiner werden die Suchergebnisse ausfallen. Ab einem gewissen Vorsprung existiert sozusagen ein unanfechtbares Monopol.

Die Umbrüche, die Sie benennen sind gute Beispiele für klassische Neuanfänge. Die erste Phase sozusagen, die inzwischen schon hinter uns liegt. Wir stecken mitten in Phase Zwei, der Konsolidierung.

Darüberhinaus wird spannend sein, zu beobachten welche Auswirkungen Experimente wie beispielsweise Facebooks "Instant Articles" auf die Nachrichtenrezeption haben werden. Inwiefern die hausinternen Analytic Tools von z. B. Buzzfeed unabhängig davon profitieren. Oder auch was genau mit der Einbettung der Fb-Autorenprofile in die Newsstories passiert. Besonders skeptisch sehe ich vor allem den Designaspekt, alle Details von der Typo, farblichen Darstellung bis hin zum Design & CI der Brands; all die weichen Faktoren, die die Identität der jeweiligen Marke ausmachen lassen sich nicht einfach auf Facebook übertragen. Ganz abgesehen davon, "ich wollte immer schon für die New York Times schreiben. Für Facebook zu schreiben ist nicht mal ansatzweise so sexy."