Frances Haugen, ancienne data-scientist chez Facebook, a révélé comment l’entreprise fait des profits au détriment de la santé physique et mentale de ses utilisateurs. Au cœur du problème, le fonctionnement d’un algorithme qui privilégie les contenus haineux et clivants et dont des recherches internes montrent qu’ils accroissent le temps d’utilisation.
Une pierre de plus dans le jardin de Facebook et non des moindres puisqu’il s’agit du témoignage d’une ancienne employée. Alors que les documentaires et les articles sur les conséquences mentales, physiques, politiques et géopolitiques des actions menées par Facebook se multiplient, voici que l’entreprise voit son linge sale étendu sur la place publique.
La faute à Frances Haugen, ancienne data-scientist chez Facebook, qui a décidé d’accorder une interview à l’émission américaine 60 Minutes et dévoilé le fonctionnement d’une entreprise qui « maintes et maintes fois, a choisi les profits plutôt que la sécurité », a-t-elle déclaré, dimanche 3 octobre 2021, après avoir glané des milliers de documents internes à l’entreprise.
« Les choses que j’ai vues chez Facebook, maintes et maintes fois. Il y avait des conflits d’intérêts entre ce qui était bon pour le public et bon pour Facebook. Et Facebook a, encore et toujours, choisi d’optimiser ses intérêts propres, comme récolter encore plus d’argent. »
Entre 2019 et 2021, Frances Haugen, 37 ans et ancienne employée chez Google et Pinterest, a travaillé dans une section intitulée « Civic Integrity » au siège social de l’entreprise et dont l’objectif était de réguler la désinformation et la haine en ligne, une cause importante pour la diplômée d’Harvard qui a perdu un proche à cause de la difficulté de contrôler les théories du complot sur le Net.
Après les élections présidentielles de 2020, Facebook a choisi de dissoudre la cellule Civic Integrity au prétexte qu’il n y avait eu aucun incident ni émeute, rapporte Frances Haugen. « C’est à ce moment là que je me suis dit que je ne les croyais pas capable de vouloir investir ce qui devait être investi pour empêcher Facebook d’être dangereux. » Quelques mois plus tard, en janvier 2021, des milliers de supporters de Donald Trump investissaient le Capitole.
L’algorithme au cœur du problème
« Vous prenez votre téléphone. Vous pouvez voir, disons une centaine de contenus en cinq minutes. Mais Facebook a des milliers d’options sur ce qu’il décide de vous montrer. » L’enjeu réside dans un changement dans l’algorithme de Facebook datant de 2018.
Facebook privilégie volontairement des contenus haineux, clivants et polarisants car ces émotions sont une meilleure source d’engagement et d’interaction pour l’utilisateur. Et Facebook s’est rendu compte qu’en changeant l’algorithme les utilisateurs passeraient moins de temps sur l’application et leur rapporterait donc moins d’argent, a conclu Frances Haugen.
Deux documents de recherches internes chez Facebook et diffusés par 60 Minutes montrent que l’entreprise ne régule que 3 à 5 % de l’ensemble des contenus haineux, soit 26,9 millions de messages selon les chiffres communiqués à l’Informaticien et 0,6 % des contenus violents.
Le problème de la haine en ligne est pire sur Instagram où plusieurs études ont montré l’explosion de pensées suicidaires et des troubles alimentaires chez les adolescentes. Instagram a retardé son projet de le rendre accessible dès 13 ans après, en outre, une enquête du Wall Street Journal dont des documents internes fournis par Frances Haulen au quotidien montraient que l’entreprise avait tout de même conscience de ces phénomènes.
Facebook a tenté de minimiser les propos de Frances Haulen quelques jours avant la diffusion de l’interview, dans un mémo interne publié par Nick Clegg, responsable des affaires internationales et de la communication de Facebook, ont rapporté plusieurs médias américains. Celui-ci indique notamment qu’aucune preuve ne permet de conclure que Facebook est « la cause principale de la polarisation ».
« Nous vivons dans un environnement d’information plein de haine, de colère. Cela érode notre foi civique et en l’autre et notre habileté à prendre soin de l’autre. Facebook tel qu’il existe aujourd’hui détruit nos sociétés et cause des violences ethniques à travers le monde », a proféré Frances Haulen.
Frances Haulen a prévu de témoigner devant le Congrès américain dans le courant de la semaine et plaide pour une plus grande régulation du réseau social. Elle dispose d’un site internet disponible ici.
Le lendemain de cette interview, les principaux réseaux de communication de Facebook, à savoir Instagram, WhatsApp et Messenger ainsi que Facebook lui-même ont subi une panne mondiale dès 17h45, heure française. La nature et l'origine de cette panne n'ont, pour l'heure, pas été identifiées.