Le règlement sur les services numériques (DSA) est entré en vigueur pour toutes les plateformes numériques samedi 17 février.
Depuis le 25 août 2023, les 19 premières grandes plateformes en ligne devaient se conformer au DSA qui, désormais, ne fait plus la différence. Il s’agissait d’AliExpress, Amazon Store, Apple AppStore, Bing, Booking, Facebook, Google Maps, Google Play, Google Search, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Wikipedia, X (anciennement Twitter), YouTube et Zalando. À quoi s’ajoutent trois sites pornographiques, Pornhub, Strichat et XVideos, depuis le 20 décembre 2023.
Mais depuis le 17 février, tous les fournisseurs d’accès internet (FAI), les services cloud, les plateformes en ligne de types marketplaces, les réseaux sociaux, les plateformes de voyage et d’hébergement, les très grandes plateformes en ligne et les grands moteurs de recherche, sont soumis aux obligations prévues par le texte. Tous ? Pas vraiment. Sont exemptées les plateformes de moins de 50 salariés et dont le chiffre d'affaires annuel n'excède pas 10 millions d’euros.
Ce qui doit changer
Le DSA est en fait une actualisation de la directive européenne de 2000 sur le commerce électronique. Son objectif est clair : mieux protéger les internautes européens en responsabilisant les plateformes vis-à-vis de ce qu’elles diffusent. Le texte fixe ainsi des règles aux plateformes numériques afin de lutter contre la publications de contenus illicites, tels que des images pédopornographiques ou de la désinformation, et de produits illégaux comme des drogues etc.
Les mesures à mettre en application varieront en fonction de la nature des acteurs concernés et de leurs services. Dans les grandes lignes, les internautes devront avoir un outil à disposition leur permettant de signaler les contenus illicites qui devront ensuite être rapidement retirés. Des « signaleurs de confiance », comme des associations, devront être désignés. Ce sont leurs notifications qui seront traitées en priorité.
Plus de transparence
Les plateformes devront également être plus transparentes envers leurs utilisateurs concernant la modération. Un système de traitement des réclamations devra ainsi être mis en place pour que les utilisateurs dont le compte aurait été suspendu puissent contester la décision. Les internautes pourront se tourner vers des organismes indépendants certifiés si besoin.
Plus technique, les plateformes ont l'obligation d’expliquer comment leurs algorithmes fonctionnent pour ce qui concerne les recommandations et contenus publicitaires. Dans le cadre de cette pratique, la publicité ciblée sur les mineurs ou en fonction des opinions politiques, de la religion, ou de l’orientation sexuelle est interdite, sauf consentement. Les plateformes devront également mettre un terme à certaines pratiques trompeuses comme les dark patterns par exemple.
Des sanctions colossales sur le papier
Les plateformes devront réaliser des audits indépendants de réduction des risques chaque année, le tout, sous la supervision de la Commission européenne à qui elles fourniront les algorithmes de leurs interfaces ; ainsi qu’un accès aux données des interfaces aux chercheurs. Il revient à ces derniers d’analyser le travail d’atténuation des risques effectué ou non par les plateformes. En cas de manquement, les plateformes s’exposent à des sanctions pouvant atteindre 6% de leur chiffre d’affaires mondial et une interdiction d’exercer leurs activités en cas de violations graves répétées. Voilà pour le texte. Dans les faits, il est rare de voir des entreprises se faire sanctionner à de tels niveaux.
Reste à savoir ce que cela donnera dans la réalité. À ce titre, la Commission européenne n’a pas perdu de temps, puisqu’elle a annoncé ouvrir une procédure formelle contre TikTok, afin de déterminer si le réseau social chinois a enfreint les règles en matière de protection des mineurs, de transparence de la publicité, d’accès des chercheurs aux données, et la gestion des risques.