Dans un billet blog publié mardi 13 décembre, Meta, la maison mère de Facebook et Instagram, a indiqué mettre à disposition Hasher Matcher Actioner (HMA), un outil logiciel open source gratuit afin d’« aider les plateformes à identifier les copies d'images ou de vidéos » aux contenus haineux sur Internet.
Comment ça marche ?
Cette base de données de hashage en open source conservera les « hash » déposées par les organisations. Ces empreintes numériques permettent d’identifier des vidéos ou images repérées par des modérateurs. Chaque média posté sur une plateforme passe par le filtre de cette base de données et sera signalé et/ou supprimé en cas de concordance.
« De nombreuses entreprises n'ont pas les capacités technologiques internes pour trouver et modérer le contenu violant dans des volumes élevés, c'est pourquoi HMA est un outil potentiellement précieux », souligne Nick Clegg, le président des affaires internationales de Meta. Désormais, toute organisation pourra consulter ce logiciel afin créer sa propre base de données.
Meta s’investit sur la modération
Meta dit avoir dépensé 5 milliards de dollars en 2021 dans le monde pour la sûreté et la sécurité. Nick Clegg souligne que « les discours de haine est désormais vu deux fois pour 10 000 vues de contenu sur Facebook, contre 10 à 11 fois pour 10 000 vues il y a moins de trois ans. » Loin d’être irréprochable en matière de modération, Meta a le mérite de travailler sur le sujet. Contrairement à d’autres comme Twitter, pour qui cette problématique ne semble ne plus vraiment être une préoccupation.