Facebook hat für eine Studie die Auswahl der Einträge im Nachrichtenstrom von einigen Hunderttausend Nutzern manipuliert. Bei dem Experiment vor eineinhalb Jahren sollte erforscht werden, wie sich positive und negative Emotionen in Netzwerken ausbreiten. Entsprechend wurden für Nutzer die Einträge ihrer Facebook-Freunde vorgefiltert. Die Autoren der kürzlich veröffentlichten Studie kamen zu dem Schluss, dass Menschen, die mehr positive Nachrichten sahen, eher dazu neigten, auch selbst Einträge mit positivem Inhalt zu veröffentlichen und umgekehrt.

Die Ergebnisse bewiesen, "dass die auf Facebook gezeigten Gefühle unsere eigenen Gefühle beeinflussen" – das sei ein experimenteller Beleg für eine "massive Sozialansteckung über soziale Netzwerke", schrieben die Autoren in den Proceedings of the National Academy of Sciences. Angesichts der enormen Zahl an Facebook-Nutzern – laut Konzernangaben liegt sie bei mehr als einer Milliarde – gewinnt der an sich wenig spektakuläre Befund an Brisanz.

Insgesamt wurde im Januar 2013 für eine Woche in die sogenannten Newsfeeds von knapp 690.000 Nutzern der englischsprachigen Facebook-Version eingegriffen. Diese Nachrichten werden normalerweise auch gefiltert, zum Beispiel danach, wie häufig ein Nutzer die Beiträge seiner Freunde liest.

Daten dürfen verwendet werden

Laut Studie wurden über drei Millionen Einträge von einer Software ausgewertet, die per Wortanalyse die Emotion zuordnete. Das brachte neben Kritik an der ethischen Seite des Experiments auch Zweifel an der Aussagekraft der Studie: So verwies das Psychologie-Blog Psych Central auf Schwierigkeiten der verwendeten Software, die Stimmung eines Eintrags nur anhand einzelner Wörter zuzuordnen. Von Facebook gab es zunächst keine Reaktion.

Die Studie war bereits am 2. Juni veröffentlicht worden, kam aber erst jetzt mit Medienberichten und Kritik im Internet in die Diskussion. In dem Papier wird darauf hingewiesen, dass die Datenverwendungsregeln von Facebook, denen die Nutzer zustimmen, ein solches Vorgehen zulassen. Sämtliche Daten können demnach zur Datenanalyse und zur Forschung verwendet werden.

Facebook manipuliert permanent

Dennoch räumte Susan Fiske von der Universität Princeton, die die Veröffentlichung des Studienergebnisses redigierte, im Interview mit dem Online-Magazin The Atlantic ein Unwohlsein ein. Sie habe daher die Studienautoren kontaktiert. Diese hätten darauf verwiesen, dass ihnen die Studie von den zuständigen Gremien genehmigt worden sei, "da Facebook offenbar die Newsfeeds der Leute permanent manipuliert".

Mehr als eine Milliarde Menschen haben sich bei Facebook registriert. Von ihnen loggen sich rund 650 Millionen mindestens einmal täglich ein, um Meldungen und abonnierte Seiten zu lesen und mit ihren Freunden zu kommunizieren.