Produktempfehlung: Kaspersky lab
-Mimikama unterstützen -

Gemeinsam gegen Fakes, Fake-News und anderen Unwahrheiten im Internet. Bitte hilf mit!

Die Startseite bei Facebook wurde für eine Studie einigen Hunderttausenden Nutzern manipuliert: Sie bekamen ein verändertes Bild von der Stimmung ihrer Freunde gezeigt.

Der Newsfeed bei Facebook (die Startseite, die sich Neuigkeiten nennt), ist für viele Hundert Millionen Nutzer eine wichtige Einrichtung, die viel von seinen Freunden und Kollegen zeigen kann. Hier sieht man, was Bekannte tun, was Kollegen für mitteilenswert halten, wie es den Freunden gerade geht.

image

Oder doch nicht?

Ungefähr 310.000 Nutzer sahen im Rahmen eines Psychologie-Experiments einen manipulierten Newsfeed, ohne ihr Wissen.

Eine Gruppe sah vor allem positive Einträge ihrer Freunde, eine andere fast nur Negative.

Das Experiment fand schon im Januar 2012 statt und betraf insgesamt 689.003 englischsprachige Nutzer. Das Experiment lief etwa eine Woche lang.

Anfang Juni wurde die Studie nun veröffentlicht. Doch erst jetzt, mit vier Wochen Verspätung rollt eine Empörungswelle an.

Viele Nutzer sind entsetzt darüber, dass sie ohne Zustimmung als Versuchskaninchen eingesetzt wurden und ihnen ein verfälschtes Bild von ihrem Freundeskreis gezeigt wurde.

Das Pikante: Zwar haben Wissenschaftler immer wieder auf Daten von Facebook zurückgegriffen, doch dieses Experiment ist wohl das Erste, dass die Informationen im Netzwerk verfälscht – unter Mitarbeit von Facebook-Angestellten! Hierzu wurde der Algorithmus verändert.

Eine Forscherin, die die Veröffentlichung der Studie für das Fachblatt „Proceedings of the National Academy of Sciences“ betreute, sagte, sie sei zunächst besorgt gewesen. Forscher und Facebook hätten aber versichert, dass alles rechtens sei.

Facebook-Mitarbeiter manipulierten doch ohnehin die Newsfeeds der Nutzer, sei eines der Argumente gewesen, sagte die Forscherin dem Magazin „The Atlantic“.

„Emotionale Ansteckung“ funktioniert ohne direkten Kontakt

Wenn Experimente dieser Art an bspw. Universitäten durchgeführt werden, muss eine Ethik-Kommission zustimmen. Für Privatfirmen, wie Facebook gilt dies nicht. Die Studie ist allerdings von den Nutzungsbestimmungen des Netzwerks, dass alle Nutzer unterschrieben haben, gedeckt.

Wegen der Empörung der Nutzer betonte man, dass die Beiträge selbst ja gar nicht entfernt wurden. Ging man auf die Profilseiten der Freunde, seien die zuvor nicht angezeigten Nachrichten (im Newsfeed) sichtbar gewesen.

Das Ergebnis klingt erst einmal wenig überraschend!

Wer mehr positive Nachrichten in seinem Newsfeed las, postete auch selbst eher Positives. Bei der negativen Gruppe war es ähnlich, nur wer Negatives las, postete auch selbst eher Negatives.  Bei der negativen Gruppe gab es diesen Zusammenhang ebenfalls.

Verweise:
Even the Editor of Facebook’s Mood Study Thought It Was Creepy
Manipulierte Newsfeeds: Facebook-Nutzer empört über Psycho-Experiment
Psychospielchen: Facebook manipuliert heimlich 700.000 Newsfeeds
Facebook manipulierte für Studie Nachrichtenstrom

Autor: Johannes Lemmer, mimikama.at und Richtsberg Journal