Instagram vous prévient si vos commentaires sont toxiques

Dans la lutte contre la haine en ligne, il y a le projet de loi en France et, de l’autre côté de l’Atlantique, les mesures prises par Instagram pour protéger ses utilisateurs. L’un est crédible, l’autre moins, nous vous laissons deviner lequel.

Voilà bien une idée dont Twitter devrait s’inspirer… Dans un communiqué, Adam Mosseri, le patron d’Instagram au sein de la galaxie Facebook, annonce la mise en place d’une mesure destinée à lutter contre le cyberharcèlement. L’outil, baptisé Restrict, est astucieux : plutôt que de bloquer ou de « unfollow » une personne nuisible « parce que cela pourrait aggraver la situation, surtout s’ils interagissent avec leur harceleur dans la vie réelle », un utilisateur pourra « restreindre » son « troll ».

Cette fonctionnalité, bientôt en test, implique que « les commentaires sur vos publications de cette personne [restreinte] ne seront visibles que par cette personne ». Mieux qu’un blocage : le harceleur n’a pas conscience que vous ne voyez pas ses commentaires, et en plus personne d’autre ne les voit. D’autant que l’utilisateur peut choisir de rendre les commentaires d’une personne restreinte visibles aux autres en les approuvant. Enfin, les personnes restreintes ne seront pas en mesure de voir quand l’utilisateur est actif sur Instagram ou lorsqu’il a lu leurs messages.

IA la rescousse

Depuis 2017, Instagram offre à ses utilisateurs divers paramètres permettant de filtrer les contenus et les commentaires malveillants, photos inopportunes, messages insultants, etc. Sans surprise, ces filtres fonctionnent à grands renforts de Machine Learning, chaque signalement d’un contenu offensant alimentant le système. Et puisqu’il s’agit d’un filtrage personnel qui va masquer pour un utilisateur donné tel ou tel commentaire, Instagram ne peut être accusé de supprimer ces contenus et donc de toucher à la liberté d’expression, sempiternel prétexte des harceleurs et autres énervés des réseaux sociaux.

Ce système permettait aux utilisateurs de se protéger proactivement du « cyber bullying », mais Instagram va désormais plus loin. Deuxième annonce de ce communiqué, la mise en place d’un mécanisme similaire mais, cette fois-ci, plutôt que de filtrer les commentaires offensants, il s’agit d’avertir leurs auteurs du caractère nocif de leurs messages.

« Cette intervention permet aux personnes de réfléchir et d'annuler leur commentaire et empêche le destinataire de recevoir la notification du commentaire toxique » explique le réseau de partage de photos. A en croire Instagram et ses premiers tests, ce système affichant à l’écran d’un utilisateur le fait que le commentaire qu’il souhaite poster est potentiellement offensant encouragerait « certaines personnes à effacer leur commentaire et à partager quelque chose de moins blessant ».