Katzen tun, was Katzen tun

Newsfeed-Studie Man sollte nicht erwarten, dass sich ein Netzwerk wie Facebook ethisch korrekt verhält. Der Feldversuch mit manipulierten Newsfeeds hätte niemanden überraschen dürfen
Katzen tun, was Katzen tun

Bild: Jonathan Nackstrand / AFP

Aus der Kontroverse um die Studie zur Verbreitung von Emotionen, die Facebook unter seinen Nutzern durchgeführt hat, lassen sich in zweierlei Hinsicht interessante Schlüsse ziehen: Erstens in Bezug auf die Nutzer des sozialen Netzwerks und zweitens über Unternehmen wie Facebook.

Falls Sie es nicht mitbekommen haben sollten – darum geht es: Das Erste, was Facebook-Nutzer sehen, wenn sie sich eingeloggt haben, ist ihr Newsfeed. Das ist eine Auflistung der Status-Updates, Nachrichten und Fotos, die ihre Freunde gepostet haben. Dieser Newsfeed ist allerdings nicht allumfassend, denn er enthält nicht alle möglicherweise relevanten Informationen von allen Freunden des jeweiligen Nutzers. Darüber hinaus erfolgt die Auswahl dessen, was ein Nutzer in seinem Newsfeed zu sehen bekommt, keinesfalls zufällig, sondern durch unternehmenseigene Algorithmen. Dieser Vorgang wird auch als „Kuration“ bezeichnet. Die Kriterien, nach denen diese Algorithmen funktionieren, kennt niemand – sie sind ebenso ein Geschäftsgeheimnis wie der Pagerank-Algorithmus von Google. Wir wissen nur, dass ein Algorithmus entscheidet, was Facebook-Nutzer in ihren Newsfeeds sehen.

So weit, so klar. Die aktuelle Kontroverse nun wurde angestoßen, als durch die Veröffentlichung eines Research Papers in der renommierten US-Wissenschaftsfachzeitschrift Proceedings of the National Academy of Sciences bekannt wurde, dass Facebook-Forscher im Januar 2012 eine Woche lang absichtlich manipuliert haben, was 689.003 Facebook-User nach dem Einloggen präsentiert bekamen. Einige sahen Beiträge mit überwiegend positivem und fröhlichem Wortlaut, andere Inhalte mit negativerer oder traurigerer Konnotation. Nach Ablauf der Woche, so das Ergebnis der Studie, posteten die unwissenden Versuchskaninchen ebenfalls Beiträge mit positivem bzw. negativen Tonfall.

Statistisch gesehen waren die Effekte auf die Nutzer relativ gering. Die Implikationen indes waren offenkundig: Facebook hatte gezeigt, dass es die Gefühle seiner Nutzer manipulieren kann! Schock, Horror! Worte wie „gruselig“ oder „furchterregend“ machten die Runde. Diskussionen darüber entbrannten, ob das Experiment unethisch sei und/oder illegal in dem Sinne, dass es gegen die Nutzungsbedingungen verstoße, die die unglückseligen Facebook-Nutzer akzeptieren müssen. Die Antworten auf diese Fragen lauten Ja, beziehungsweise Nein – Ethik ist nicht das Geschäft von Unternehmen wie Facebook und die Facebook-Nutzungsbedingungen verlangen von den Nutzern, der „Analyse, Untersuchung und Erforschung“ ihrer Daten zuzustimmen.

Die Spindoktoren von Facebook scheinen ertappt worden zu sein. Facebook-Geschäftsführerin Sheryl Sandberg veranlasste das zu zürnen, das Problem mit der Studie sei gewesen, dass diese „schlecht kommuniziert“ worden sei. Damit spielte sie zweifelsohne auf die Behauptung des Unternehmens an, das Experiment sei durchgeführt worden, „um unsere Dienstleistungen zu verbessern und die Inhalte, die bei Facebook zu sehen sind, so relevant und anregend wie möglich zu machen. Dazu gehört zu einem großen Teil auch, zu verstehen, wie die Menschen auf verschiedene Inhalte – auf solche mit positivem oder negativem Tonfall, auf Neuigkeiten von Freunden oder Informationen von Seiten, denen sie folgen – reagieren."

Übersetzt liest sich das so: „Wir beabsichtigen, sicherzustellen, dass nichts von dem, was die Leute auf Facebook zu sehen bekommen, die Wahrscheinlichkeit reduziert, dass sie sich weiterhin einloggen. Das Experiment bestätigt unserer Annahme, dass negative Nachrichten schlechte Nachrichten sind (weshalb wir auch nur einen „Gefällt mir“-Knopf haben). Aus diesem Grund werden wir unsere Algorithmen so konfigurieren, dass der 'Happy Talk' weiterhin in den Newsfeeds der Nutzer überwiegen wird.“

Wenn die Geschichtsschreibung sich einmal unserer Zeit widmen wird, werden die Historiker wohl erstaunt darüber sein, mit welch willfähriger Leichtigkeit augenscheinlich vernünftige Menschen zuliessen, dass sie von staatlichen Geheimdiensten und Grosskonzernen überwacht und manipuliert wurden. Ich selbst war einmal der Ansicht, die Mehrheit der Facebook-User müsse zumindest irgendwie einen Begriff davon haben, in welchem Maße sie von Algorithmen bestimmt werden. Doch das empörte Brimborium in Folge dieses Experiments lässt möglicherweise darauf schliessen, dass dies nicht der Fall ist. Wenn die Aufregung sich jedoch erst einmal gelegt hat, werden die meisten Nutzer sich wohl wieder der Manipulation der Informationen, die sie erhalten und ihrer Emotionen unterwerfen. Wen die Götter zerstören wollen, den machen sie zuerst naiv.

Die Diskussionen darüber, ob das Experiment unethisch war, offenbaren, wie sehr Big Data unsere regulatorische Landschaft verändert. Eine Vielzahl der Aktivitäten, die die großangelegte Datenanalyse heute möglich macht, ist zweifelsohne schlicht deshalb „legal“, weil unsere Gesetze derart hinterherhinken. Unsere Datenschutzgesetze schützen bestimmte Arten persönlicher Informationen. Doch die Datenanalyse ermöglicht Unternehmen und Regierungen, sehr aufschlussreiche „Informationsmosaike“ über Personen zu erstellen, indem sie eine große Menge jener digitalen Spuren sammeln, die wir alle im Cyberspace hinterlassen. Keine dieser Spuren unterliegt derzeit rechtlichem Schutz.

Der Gedanke, Unternehmen sollten sich ethisch verhalten, ist im Übrigen so absurd wie der Vorschlag, Katzen sollten die Rechte von Kleinsäugern respektieren. Katzen tun, was Katzen tun: Sie töten andere Lebewesen. Unternehmen tun, was Unternehmen tun: Gewinne und Shareholder-Value im Rahmen des Gesetzes maximieren. Facebook mag in Sachen Unternehmenssoziopathie ein Extrembeispiel sein. Trotzdem ist es bloß die Ausnahme, die die Regel bestätigt.

John Naughton ist ein irischer Akademiker, Journalist und Author

Liebe Leserin, lieber Leser,

dieser Artikel ist für Sie kostenlos.
Unabhängiger und kritischer Journalismus braucht aber auch in diesen Zeiten Unterstützung. Wir freuen uns daher, wenn Sie den Freitag hier abonnieren oder 3 Ausgaben gratis testen. Dafür bedanken wir uns schon jetzt bei Ihnen!

Ihre Freitag-Redaktion

15:14 09.07.2014
Geschrieben von

John Naughton | The Guardian

Der Freitag ist Syndication-Partner der britischen Tageszeitung The Guardian
Schreiber 0 Leser 11833
The Guardian

Ausgabe 32/2020

Hier finden Sie alle Inhalte der aktuellen Ausgabe

3 Ausgaben kostenlos lesen

Der Freitag ist eine Wochenzeitung, die für mutigen und unabhängigen Journalismus steht. Wir berichten über Politik, Kultur und Wirtschaft anders als die übrigen Medien. Überzeugen Sie sich selbst, und testen Sie den Freitag 3 Wochen kostenlos!

Kommentare 6