L’intelligence artificielle pourrait-elle commencer à sauver des vies ? C’est en tout cas le sens du système mis au point par Facebook, et qui commence à être déployé. Il s’agit donc d’une IA capable de scanner les posts, de les analyser et de s’appuyer sur des modèles connus pour détecter les comportements suicidaires. Si c’est le cas, le système envoie alors des informations et des contacts appropriés, et pourrait aussi alerter les proches ou les personnes en mesure d’agir. Notons que Facebook a développé des liens de par le monde avec des associations comme Save.org ou Forefront.
C’est donc surtout le temps de réaction qui sera amélioré avec un tel système de prévention, ou de « détection proactive ». Mais le système d’IA ne s’arrêtera pas là, puisqu’il permettra aussi d’accélérer l’avertissement à l’attention des modérateurs dans plusieurs langues.
Bien évidemment le scan des postes sur le réseau social fait craindre le pire, même si l’initiative (et sa finalité) vis-à-vis de la prévention du suicide est à saluer. Ce à quoi le responsable de la sécurité du réseau social, Alex Stamos, a répondu dans un tweet cinglant :
The creepy/scary/malicious use of AI will be a risk forever, which is why it's important to set good norms today around weighing data use versus utility and be thoughtful about bias creeping in. Also, Guy Rosen and team are amazing, great opportunity for ML engs to have impact. https://t.co/N9trF5X9iM
— Alex Stamos (@alexstamos) 27 novembre 2017
C’est compliqué en Europe
Mark Zuckerberg a quant à lui esquissé le futur, dans un message sur Facebook, évoquant surtout qu’il sera possible prochainement de s’attaquer à des comportements comme le harcèlement notamment.
En Europe toutefois, le système IA de Facebook ne sera visiblement pas proposé. En l’occurrence, la future application du RGPD semble incompatible avec ce genre de méthode. Dans une longue et intéressante analyse du futur texte, le spécialiste de la protection des données Phil Lee explique notamment la différence entre le profilage et les décisions automatisées. En effet, l’article 22 du texte explique que :
La personne concernée a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire.
Cela démontre aussi l’ambiguïté du texte sur certains points, qui sont somme toute soumis à une certaine interprétation. Concrètement, Facebook pourrait un jour appliquer son système d’IA en Europe, en obtenant le consentement explicite des utilisateurs.