La Federal Trade Commission américaine a lancé une enquête sur le créateur de ChatGPT, sur fonds de suspicions de pratiques déloyales ou trompeuses en matière de confidentialité et de sécurité des données.
Malgré le lobbying intense, des deux côtés de l’Atlantique, de Sam Altman, président d’OpenAI, l’entreprise à l’origine de ChatGPT est dans le viseur de la FTC. Le régulateur américain se penche sur les pratiques de la société en matière de sécurité et de confidentialité des données.
Il examine en effet si OpenAI « s’est engagé dans des pratiques déloyales ou trompeuses en matière de confidentialité ou de sécurité des données ou s'est engagé dans des pratiques déloyales ou trompeuses liées aux risques de préjudice pour les consommateurs » selon un document d’une vingtaine de pages transmis à la startup et consulté par le Washington Post.
La FTC interroge OpenAI quant à la manière dont elle entraîne son IA et traite les données personnelles. Elle demande notamment le détail de toutes les plaintes reçues relatives à des informations fausses ou trompeuses : on a en effet pu voir ChatGPT à l’œuvre, inventant largement la biographie de personnes sur lesquelles l’IA était interrogée.
Risque de sécurité
En outre, le régulateur veut obtenir les logs liés à un incident de sécurité révélé par la société en mars. Le bug avait été largement commenté à l’époque, puisqu’il avait permis à certains utilisateurs d’avoir accès à des informations de paiement et à l’historique de discussion d’autres utilisateurs. La FTC cherche ici à déterminer si les problèmes de sécurité chez Open AI sont de nature à enfreindre la législation sur la protection des consommateurs.
Pour Enza Iannopollo, principale analyste de Forrester, « la combinaison des données personnelles et de l'IA générative libère une valeur sans précédent pour les organisations. Mais, sans les mesures appropriées de gouvernance et de gestion des risques, il devient un désastre complet - non seulement en raison des enquêtes et des amendes potentielles, à laquelle pourrait aboutir l'affaire de la FTC, mais aussi en raison du préjudice grave qu'il peut causer aux personnes impliquées. Tant que les grands modèles linguistiques (LLM) resteront opaques et s'appuieront largement sur des données récupérées pour leur apprentissage, les risques d'abus en matière de protection de la vie privée et de préjudice pour les personnes continueront de croître ».