DeepSeek a exposé un million de données sensibles, selon une enquête des chercheurs en cybersécurité de Wiz. Cette vulnérabilité s’ajoute à la longue liste de signaux d’alarme dont la startup chinoise d’IA générative est accusée ou soupçonnée.
Dans le cadre d’une évaluation de la posture de sécurité de DeepSeek, Wiz Research a découvert une base de données ClickHouse non sécurisée et accessible en ligne, exposant des informations sensibles.
Des risques d’escalade de privilèges
« Cette exposition comprenait plus d’un million de lignes de journaux contenant l’historique des conversations, des clés secrètes, des détails du backend » et d’autres informations hautement sensibles, telles que des secrets d’API, des détails opérationnels et des journaux d’activité. « Cette faille permettait un contrôle total de la base de données et une potentielle escalade de privilèges au sein de l’environnement DeepSeek, sans aucune authentification ni protection contre l’accès extérieur », écrivent les chercheurs. La faille a depuis été corrigée par DeepSeek après un signalement de Wiz Research.
L’adoption rapide et massive des technologies d’IA se fait souvent au détriment de la sécurité. Alors que les débats sur les risques futurs de l’IA vont bon train, Wiz invite les équipes de sécurité à se concentrer sur des menaces actuelles et bien réelles, liées aux infrastructures et outils qui supportent ces applications. « Des failles de sécurité basiques existent bel et bien. Les équipes de sécurité et les ingénieurs en IA doivent collaborer étroitement pour assurer une visibilité complète sur l’architecture, les outils et les modèles utilisés. Cette approche est essentielle pour prévenir l’exposition des données et garantir une sécurité robuste », concluent-ils dans leur rapport.
DeepSeek sous le feu des projecteurs
DeepSeek a attiré l’attention en début de semaine après avoir dévoilé ses modèles d’IA, notamment son modèle de raisonnement DeepSeek-R1, qui rivalise avec GPT-4 d’OpenAI, et ce, à un coût réduit. Ces annonces avaient affolé les marchés, entraînant une chute de la valeur boursière de certaines entreprises, Nvidia en tête. Mais le retour de bâton ne s’est pas fait attendre.
Les États-Unis ont immédiatement réagi, tandis que la CNIL italienne (GPDP) a ouvert une enquête. L’autorité italienne a exprimé de sérieux doutes quant à d’éventuelles violations du RGPD concernant le traitement des données personnelles et exige des explications de la part de l’entreprise. Le Monde rapporte que, depuis, l’application n’est plus disponible sur les magasins d’application d’Apple et de Google, sans plus d’explications.
Des soupçons de distillation
En Irlande, la Commission de protection des données (DPC) s’est également saisie du dossier, tout comme la CNIL en France et, plus loin, la Corée du Sud et les États-Unis. Washington cherche notamment à déterminer si DeepSeek a contourné les restrictions américaines pour obtenir illégalement des puces d’IA.
Par ailleurs, OpenAI a déclaré mener une enquête pour savoir si DeepSeek avait utilisé la technique de distillation de modèles pour entraîner ses propres intelligences artificielles. Pour rappel, cette méthode consiste à améliorer les performances de petits modèles en s’appuyant sur les sorties de modèles plus grands et plus avancés, ce qui constituerait une violation de la propriété intellectuelle d’OpenAI.
Selon des sources du Financial Times, OpenAI et Microsoft avaient déjà enquêté l’année dernière sur des comptes soupçonnés d’appartenir à DeepSeek et utilisant l’API d’OpenAI.