OpenAI aurait dissimulé une fuite de données sensibles

Le New York Times a révélé qu'OpenAI a gardé secrète une violation de données sensibles l'année dernière. Un silence qui interroge.

OpenAI fait fi des règles. Le New York Times a en effet révélé que la maison mère de ChatGPT a été visée par un cybercriminel en début d'année dernière, qui est parvenu à s'introduire dans la messagerie interne d'OpenAI. Selon des sources du média américain, le hackeur aurait mis la main sur des détails de conception des technologies du poulain de Microsoft.

OpenAI minimise

Ni l'intrusion ni la fuite de données n'ont été rendues publiques et signalées aux autorités. Selon deux personnes « familières avec l'incident », l'entreprise n'a révélé la fuite de données à ses employés et au conseil d'administration qu'en avril 2023. La direction de l'entreprise aurait toutefois jugé qu'il n'était pas nécessaire de prévenir le FBI, étant donné que les données de ses utilisateurs et partenaires n'ont pas fuité. L'entreprise a également estimé que l'attaquant n'était pas affilié à une quelconque puissance étrangère, et ne représenterait donc pas un risque pour la sécurité nationale.

Une faille majeure sur macOS

Suite à l'intrusion, les employés se seraient mis à craindre qu'une puissance étrangère ne tente de s'accaparer les secrets industriels d'OpenAI. Un employé en a même fait les frais. Responsable technique de l'entreprise, Leopold Aschenbrenner aurait été licencié peu de temps après avoir fait part de ses craintes au conseil d'administration vis-à-vis des mesures de sécurité prises par l'entreprise pour se prémunir des piratages.

Quid de la place réelle de la sécurité dans les couloirs d'OpenAI ? La semaine dernière, l'entreprise a dû corriger une faille dans la version pour macOS de ChatGPT. Il était possible pour n'importe quel utilisateur d'accéder aux conversations de tous les utilisateurs, stockées sur un ordinateur. L'entreprise assure avoir appliqué un correctif depuis. Régulièrement montrée du doigt pour sa gestion de la sécurité, OpenAI a formé un comité pour évaluer la sûreté et la sécurité de ses modèles. La transparence de celui-ci pose toutefois question, puisqu'il compte à sa tête Sam Altman, rien de moins que le PDG et cofondateur d'OpenAI, ainsi que d'autres membres de l'entreprise.