Face à la désinformation post-électorale, les géants du web n'ont pas la même approche

Comme l'avaient anticipé de nombreux observateurs, des messages fallacieux et des appels à la violence pullulent sur les grandes plateformes numériques depuis l'élection présidentielle américaine. Pour y faire face, les méthodes de Facebook, Twitter et YouTube diffèrent.

Twitter a mis en garde ses utilisateurs contre des messages jugés trompeurs de Donald Trump

Facebook et Twitter ont été prompts à apposer des avertissements ou à supprimer des publications mensongères, notamment les affirmations sans preuve du président Donald Trump et de ses partisans selon lesquelles des fraudes à grande échelle avaient lieu dans les Etats-clés.

Les fils d'actualité du milliardaire républicain sur les deux réseaux sociaux sont désormais parsemés de vignettes mettant en garde sur la véracité des contenus.

Selon Daniel Kreiss, chercheur au Centre pour l'information, la technologie et la vie Publique de l'université de Caroline du Nord, "Facebook et Twitter avaient une stratégie claire pour surveiller certains comptes" et s'étaient préparés à sévir à la moindre infraction

Ce qui n'a pas été le cas de YouTube, note l'universitaire.

Media Matters, un groupe de surveillance des médias, a établi une liste de vidéos trompeuses ayant circulé sur la plateforme vidéo de Google. Elles ont été visionnées plus d'un million de fois au total cette semaine et certaines d'entre elles sont toujours en ligne. 

"Les vidéos YouTube encourageant la désinformation sur les résultats de l'élection présidentielle de 2020 ont enregistré un nombre élevé de vues malgré la politique de la plateforme interdisant les contenus qui visent à tromper les gens sur le processus électoral", a écrit jeudi Alex Kaplan sur le blog de Media Matters.

L'analyste cite notamment de fausses allégations de l'animateur conservateur Steven Crowder ou de la télévision d'extrême-droite One America News Network (OANN). 

YouTube n'a cependant pas entièrement chômé, retirant certains contenus problématiques, dont un épisode de la chaîne de Steve Bannon, dans lequel cet ex-conseiller de Donald Trump appelait à mettre sur des pics les têtes du docteur Anthony Fauci, spécialiste des maladies infectieuses, et du patron du FBI Christopher Wray.

"Nous avons ôté cette vidéo qui allait à l'encontre de nos règles contre l'incitation à la violence. Nous continuerons d'être vigilants en appliquant nos politiques pendant la période post-électorale", a assuré Alex Joseph, un porte-parole de YouTube.

Twitter est toutefois allé plus loin en supprimant définitivement le compte de l'émission de M. Bannon.

- "Haut du panier" - 

De manière générale, YouTube ne semble pas faire preuve de la même sévérité ni de la même réactivité que les principaux réseaux sociaux dans ses efforts de modération. 

Cette différence tient peut-être à la nature des contenus qui y sont publiés.

"Le problème avec les vidéos, en particulier les vidéos en direct, est qu'il est difficile pour l'intelligence artificielle (IA) de détecter un problème", note Adam Chiara, professeur de communication à l'université de Hartford.

"Pour le texte ou les photos, l'IA peut chercher des mots-clés ou dupliquer des images. Ce n'est pas aussi simple avec la vidéo", ajoute le spécialiste.

Cela pourrait expliquer pourquoi d'autres plateformes de partage de vidéos ont été inondées par des tentatives de désinformation.

Media Matters a notamment identifié plusieurs vidéos diffusées sur l'application prisée des jeunes TikTok par des sympathisants du mouvement conspirationniste QAnon, qui élaboraient une sombre théorie du complot autour de prétendus faux bulletins de vote déposés par les démocrates.

Après avoir été visionnées plus de 237.000 fois, ces vidéos ont été supprimées. 

Mais pour M. Kreiss, YouTube aurait quand même pu agir différemment. 

"Toute mise en oeuvre de règles sérieuses devrait commencer par les comptes politiques institutionnels", juge le spécialiste. "Il faut commencer par le haut du panier. Je pense qu'il faudrait que les règles s'appliquent pour le président et pour d'autres représentants des élites qui cherchent à saper la crédibilité des élections".

Du côté de Facebook et Twitter, la vigilance devrait rester de mise dans les prochains jours, d'autant plus que Donald Trump continue de propager des rumeurs sur un vol supposé de l'élection et ne semble pas prêt de concéder son éventuelle défaite.

Carl Tobias, professeur de droit à l'université de Richmond, s'est dit "modérément optimiste" sur le fait que les deux groupes "apprennent de leurs faux pas ou des nouvelles +combines+ des hommes politiques et qu'ils continuent à protéger leurs plateformes face à la désinformation, les mensonges, l'incitation à la violence et d'autres actions nuisibles à la tenue d'élections libres et à la démocratie."

Source : AFP - Daniel HOFFMAN avec Rob LEVER à Washington