Katzen tun, was Katzen tun

Newsfeed-Studie Man sollte nicht erwarten, dass sich ein Netzwerk wie Facebook ethisch korrekt verhält. Der Feldversuch mit manipulierten Newsfeeds hätte niemanden überraschen dürfen
Katzen tun, was Katzen tun

Bild: Jonathan Nackstrand / AFP

Aus der Kontroverse um die Studie zur Verbreitung von Emotionen, die Facebook unter seinen Nutzern durchgeführt hat, lassen sich in zweierlei Hinsicht interessante Schlüsse ziehen: Erstens in Bezug auf die Nutzer des sozialen Netzwerks und zweitens über Unternehmen wie Facebook.

Falls Sie es nicht mitbekommen haben sollten – darum geht es: Das Erste, was Facebook-Nutzer sehen, wenn sie sich eingeloggt haben, ist ihr Newsfeed. Das ist eine Auflistung der Status-Updates, Nachrichten und Fotos, die ihre Freunde gepostet haben. Dieser Newsfeed ist allerdings nicht allumfassend, denn er enthält nicht alle möglicherweise relevanten Informationen von allen Freunden des jeweiligen Nutzers. Darüber hinaus erfolgt die Auswahl dessen, was ein Nutzer in seinem Newsfeed zu sehen bekommt, keinesfalls zufällig, sondern durch unternehmenseigene Algorithmen. Dieser Vorgang wird auch als „Kuration“ bezeichnet. Die Kriterien, nach denen diese Algorithmen funktionieren, kennt niemand – sie sind ebenso ein Geschäftsgeheimnis wie der Pagerank-Algorithmus von Google. Wir wissen nur, dass ein Algorithmus entscheidet, was Facebook-Nutzer in ihren Newsfeeds sehen.

So weit, so klar. Die aktuelle Kontroverse nun wurde angestoßen, als durch die Veröffentlichung eines Research Papers in der renommierten US-Wissenschaftsfachzeitschrift Proceedings of the National Academy of Sciences bekannt wurde, dass Facebook-Forscher im Januar 2012 eine Woche lang absichtlich manipuliert haben, was 689.003 Facebook-User nach dem Einloggen präsentiert bekamen. Einige sahen Beiträge mit überwiegend positivem und fröhlichem Wortlaut, andere Inhalte mit negativerer oder traurigerer Konnotation. Nach Ablauf der Woche, so das Ergebnis der Studie, posteten die unwissenden Versuchskaninchen ebenfalls Beiträge mit positivem bzw. negativen Tonfall.

Statistisch gesehen waren die Effekte auf die Nutzer relativ gering. Die Implikationen indes waren offenkundig: Facebook hatte gezeigt, dass es die Gefühle seiner Nutzer manipulieren kann! Schock, Horror! Worte wie „gruselig“ oder „furchterregend“ machten die Runde. Diskussionen darüber entbrannten, ob das Experiment unethisch sei und/oder illegal in dem Sinne, dass es gegen die Nutzungsbedingungen verstoße, die die unglückseligen Facebook-Nutzer akzeptieren müssen. Die Antworten auf diese Fragen lauten Ja, beziehungsweise Nein – Ethik ist nicht das Geschäft von Unternehmen wie Facebook und die Facebook-Nutzungsbedingungen verlangen von den Nutzern, der „Analyse, Untersuchung und Erforschung“ ihrer Daten zuzustimmen.

Die Spindoktoren von Facebook scheinen ertappt worden zu sein. Facebook-Geschäftsführerin Sheryl Sandberg veranlasste das zu zürnen, das Problem mit der Studie sei gewesen, dass diese „schlecht kommuniziert“ worden sei. Damit spielte sie zweifelsohne auf die Behauptung des Unternehmens an, das Experiment sei durchgeführt worden, „um unsere Dienstleistungen zu verbessern und die Inhalte, die bei Facebook zu sehen sind, so relevant und anregend wie möglich zu machen. Dazu gehört zu einem großen Teil auch, zu verstehen, wie die Menschen auf verschiedene Inhalte – auf solche mit positivem oder negativem Tonfall, auf Neuigkeiten von Freunden oder Informationen von Seiten, denen sie folgen – reagieren."

Übersetzt liest sich das so: „Wir beabsichtigen, sicherzustellen, dass nichts von dem, was die Leute auf Facebook zu sehen bekommen, die Wahrscheinlichkeit reduziert, dass sie sich weiterhin einloggen. Das Experiment bestätigt unserer Annahme, dass negative Nachrichten schlechte Nachrichten sind (weshalb wir auch nur einen „Gefällt mir“-Knopf haben). Aus diesem Grund werden wir unsere Algorithmen so konfigurieren, dass der 'Happy Talk' weiterhin in den Newsfeeds der Nutzer überwiegen wird.“

Wenn die Geschichtsschreibung sich einmal unserer Zeit widmen wird, werden die Historiker wohl erstaunt darüber sein, mit welch willfähriger Leichtigkeit augenscheinlich vernünftige Menschen zuliessen, dass sie von staatlichen Geheimdiensten und Grosskonzernen überwacht und manipuliert wurden. Ich selbst war einmal der Ansicht, die Mehrheit der Facebook-User müsse zumindest irgendwie einen Begriff davon haben, in welchem Maße sie von Algorithmen bestimmt werden. Doch das empörte Brimborium in Folge dieses Experiments lässt möglicherweise darauf schliessen, dass dies nicht der Fall ist. Wenn die Aufregung sich jedoch erst einmal gelegt hat, werden die meisten Nutzer sich wohl wieder der Manipulation der Informationen, die sie erhalten und ihrer Emotionen unterwerfen. Wen die Götter zerstören wollen, den machen sie zuerst naiv.

Die Diskussionen darüber, ob das Experiment unethisch war, offenbaren, wie sehr Big Data unsere regulatorische Landschaft verändert. Eine Vielzahl der Aktivitäten, die die großangelegte Datenanalyse heute möglich macht, ist zweifelsohne schlicht deshalb „legal“, weil unsere Gesetze derart hinterherhinken. Unsere Datenschutzgesetze schützen bestimmte Arten persönlicher Informationen. Doch die Datenanalyse ermöglicht Unternehmen und Regierungen, sehr aufschlussreiche „Informationsmosaike“ über Personen zu erstellen, indem sie eine große Menge jener digitalen Spuren sammeln, die wir alle im Cyberspace hinterlassen. Keine dieser Spuren unterliegt derzeit rechtlichem Schutz.

Der Gedanke, Unternehmen sollten sich ethisch verhalten, ist im Übrigen so absurd wie der Vorschlag, Katzen sollten die Rechte von Kleinsäugern respektieren. Katzen tun, was Katzen tun: Sie töten andere Lebewesen. Unternehmen tun, was Unternehmen tun: Gewinne und Shareholder-Value im Rahmen des Gesetzes maximieren. Facebook mag in Sachen Unternehmenssoziopathie ein Extrembeispiel sein. Trotzdem ist es bloß die Ausnahme, die die Regel bestätigt.

John Naughton ist ein irischer Akademiker, Journalist und Author

Der digitale Freitag

Mit Lust am guten Argument

Geschrieben von

John Naughton | The Guardian

Der Freitag ist Syndication-Partner der britischen Tageszeitung The Guardian

The Guardian

Die Vielfalt feiern – den Freitag schenken. Bewegte Zeiten fordern weise Geschenke. Mit dem Freitag schenken Sie Ihren Liebsten kluge Stimmen, neue Perspektiven und offene Debatten. Und sparen dabei 30%.

Print

Für 6 oder 12 Monate
inkl. hochwertiger Weihnachtsprämie

Jetzt sichern

Digital

Mit Gutscheinen für
1, 6 oder 12 Monate

Jetzt sichern

Dieser Artikel ist für Sie kostenlos. Unabhängiger und kritischer Journalismus braucht aber Unterstützung. Wir freuen uns daher, wenn Sie den Freitag abonnieren und dabei mithelfen, eine vielfältige Medienlandschaft zu erhalten. Dafür bedanken wir uns schon jetzt bei Ihnen!

Jetzt kostenlos testen

Was ist Ihre Meinung?
Diskutieren Sie mit.

Kommentare einblenden