Des employés de Samsung ont enregistré par erreur des informations confidentielles comme données d’apprentissage ouvertes dans ChatGPT.
La boulette. Quelques semaines après l’autorisation faites par Samsung à certains de ses ingénieurs d’utiliser ChatGPT, des données confidentielles de l’entreprise ont été utilisées dans des requêtes faites au chatbot rapporte le média sud-coréen The Economist. Problème : la startup américaine Open AI, derrière ChatGPT, traite le contenu des questions saisies dans son chatbot comme des données d’apprentissage.
Une fois mais pas deux
Confronté à une erreur de l'exécution du code source d'un programme, un employé de l'entreprise a copié dans ChatGPT ledit code source pour trouver une solution. Un second employé a renseigné des modèles de tests pour détecter des puces défectueuses et un troisième a converti le contenu d’une réunion enregistrée sur son smartphone en un fichier document puis l’a saisi dans ChatGPT, afin de préparer un compte-rendu de réunion. Autant de données qui ont été enregistrées comme données d’apprentissage ouvertes.
Samsung Electronics avait pourtant bien émis un avis à ses équipes pour les enjoindre à « faire attention à la sécurité des informations internes et ne pas saisir d'informations privées ». Le fabricant a pris des mesures d’urgence et a notamment limité la capacité d’entrée dans ChatGPT à un maximum de 1024 octets. Si de tels incidents venaient à se reproduire, l'accès à ChatGPT sera bloqué a prévenu Samsung qui envisage de créer son propre service d'intelligence artificielle (IA) afin d'éviter de tels incidents.