Données personnelles : Facebook manipule et teste la contagion émotionnelle de masse

À leur insu, 700 000 utilisateurs du réseau social ont vu leur fil d’actualité être modifié dans le cadre d’une étude scientifique. Le procédé, mis en lumière par la revue PNAS, inquiète.

Manipuler pour mieux régner ? Sans le savoir, 700 000 utilisateurs anglophones de Facebook ont été « manipulés » dans le cadre d’une étude sur la « contagion émotionnelle », rapporte la revue scientifique américaine PNAS (Proceedings of the National Academy of Sciences).

Jusqu’où peut-aller Facebook ?

Pendant une semaine, du 11 au 18 janvier 2012, le flux d’actualité des sujets d’expérience ont été modifiés en s’appuyant sur l’algorithme utilisé par le réseau social. Certains « cobayes » ont été soumis à davantage de messages positifs, d’autres à plus de messages négatifs. Trois millions de messages ont été analysés. Les chercheurs de Facebook et des universités de Cornell (New York) et de Californie (San Francisco) ont ainsi déterminé que les utilisateurs exposés à des termes positifs publient davantage de contenus positifs, et inversement.

« Ces résultats montrent que les émotions exprimées par d’autres sur Facebook influencent nos propres émotions, constituant la preuve expérimentale d’une contagion émotionnelle de masse via les réseaux sociaux », ont expliqué les auteurs de l’étude. Conscients de la controverse que peut susciter une telle expérience, les chercheurs ont rappelé que l’étude est « compatible avec la politique d’utilisation des données à laquelle tous les utilisateurs doivent souscrire en créant un compte Facebook ».

L’expérience est légale, mais…

L’étude est passée inaperçue du public lors de sa publication intiale, le 17 juin, dans la revue des Actes de l’académie des sciences américaine (PNAS). Après la mise en ligne ce week-end d’articles sur le sujet dans les médias américains, l’expérience a soulevé de nombreuses interrogations quant à l’éthique, au traitement et à la protection des données personnelles.

Susan Fiske est professeur de psychologie à l’université de Princeton et a édité l’étude pour PNAS. Elle a indiqué à The Atlantic avoir contacté en amont les auteurs de la recherche afin de leur faire part de ses préoccupations concernant le procédé utilisé pour mener à bien leur expérience. « Ils m’ont dit que leur comité d’éthique l’a approuvé, au motif que Facebook, apparemment, manipule systématiquement les flux d’informations diffusées ».

Facebook a réjeté l’allégation et réaffirmé la légalité et l’équité du procédé. « Cette recherche a été menée pendant seulement une semaine et aucune donnée utilisée n’était liée au compte d’une personne en particulier », a expliqué à l’AFP une porte-parole du réseau social. « Nous faisons des recherches pour améliorer nos services […] Nous examinons soigneusement les recherches que nous faisons et avons un processus interne d’examen très strict », a-t-elle ajouté.

Pour le monde des affaires rien de nouveau

Marc Andreessen, membre du conseil d’administration de Facebook, s’amuse de la polémique naissante, rapporte VentureBeat. « Éditer un site web, tout mesurer, apporter des modifications basées sur ces mesures ? Félicitations, vous menez une expérience de psychologie », a indiqué l’investisseur dans un tweet samedi soir. Bref, rien de nouveau selon lui (« it’s business as usual »).

Les sites web et autres publications en ligne testent constamment les comportements et les émotions de leurs utilisateurs, assure Marc Andreessen. Aux yeux de l’associé fondateur de la firme de capital risque Andreessen Horowitz, c’est ainsi que les sites s’améliorent.


Lire aussi

Facebook ciblera ses publicités en fonction de l’historique de navigation

Données personnelles : l’UFC-Que Choisir assigne Google, Facebook et Twitter en justice