|
In einer Studie hat Facebook
vor eineinhalb Jahren untersucht, wie sich positive und negative
Emotionen in Netzwerken ausbreiten. Im Nachrichtenstrom einiger
hunderttausend Nutzer wurde dazu die Auswahl der Einträge ihrer
Facebook-Freunde vorgefiltert. Dass Menschen, die mehr positive
Nachrichten sahen, etwas eher dazu neigten, auch selbst Einträge
mit positivem Inhalt zu veröffentlichen und umgekehrt,
war das Ergebnis der Studie.
Im Januar 2013 wurden insgesamt für eine Woche die Newsfeeds
von knapp 690.000 Nutzern der englischsprachigen Facebook-Version
manipuliert. Laut Studie wurden über drei Millionen Einträge
von Software ausgewertet, die per Wortanalyse die Emotion zuordnete.
Neben Kritik an der ethischen Seite des Experiments brachte das
auch Zweifel an der Aussagekraft der Studie: Das Psychologie-Blog
"Psych Central"
verwies so auf Schwierigkeiten der verwendeten Software, die Stimmung
eines Eintrags nur anhand einzelner Wörter zuzuordnen. Zunächst
gab es von Facebook keine Reaktion.
Am 2. Juni war bereits die Studie veröffentlicht worden,
kam aber erst jetzt mit Medienberichten und Kritik im Internet in
die Diskussion. Dass die Datenverwendungsregeln von Facebook, denen
die Nutzer zustimmen, ein solches Vorgehen zulassen, wird in dem
Papier darauf hingewiesen. Von Facebook werden die Newsfeeds der
Mitglieder ohnehin vorgefiltert, um sie nicht mit Informationen
zu überfluten.
(jk, hannover)
(siehe auch Heise-News-Ticker:)
Hannover · EDV-Beratung ·
Linux · Novell · Microsoft · Seminar ·
IT-Consult · Netzwerk · LPIC · CLE
|