Cisco lance un outil pour sécuriser l’IA en entreprise

Cisco a annoncé, mercredi 15 janvier, le lancement de Cisco AI Defense. Cet outil réseau doit aider les entreprises à déployer leurs applications d’IA de manière sécurisée.

Le déploiement de l’IA en entreprise pose des défis en matière de sécurité, et d’encadrement des usages par les collaborateurs. En juillet 2024, la CNIL (Commission nationale de l'informatique et des libertés) avait publié de premières orientations pour déployer ces systèmes de manière responsable et respectueuse de la protection des données personnelles. Éditeurs et entreprises technologiques se penchent aussi sur la question.

Dernier en date, Cisco, qui lancera en mars Cisco AI Defense. Cet outil doit aider les entreprises à garder un œil sur l’utilisation qui est faite des applications d’IA par leurs collaborateurs afin d’en garantir un déploiement sécurisé. « Intégrée au cœur du réseau, Cisco AI Defense offre une capacité unique de détection et de protection contre les menaces liées au développement et à l'utilisation des applications d'IA, sans compromis », décrit Jeetu Patel, vice-président exécutif et directeur des produits, Cisco.

Démasquer les IA utilisées en interne

Cet outil fournit plusieurs garde-fous et peut identifier les applications d’IA dans les environnements cloud publics et privés. Il valide ensuite le modèle via des tests automatisés pour détecter des vulnérabilités. En ayant une visibilité sur les applications d’IA, les équipes de sécurité peuvent ensuite ajuster leurs politiques internes en limitant l’accès des employés aux outils qui n’auraient pas été approuvés.

Pour démontrer l’urgence qu’il y a à sécuriser le déploiement de l’IA en entreprise, Cisco avance les résultats de son indice 2024 AI Readiness Index, selon lequel « 29 % des personnes concernées se disent entièrement équipées pour détecter et prévenir toute manipulation non autorisée de l'IA ». L’un des risques les plus significatifs n’est autre que l’utilisation de données publiques en combinaison avec des données propriétaires pour entraîner les modèles d’IA, ce qui augmente les risques associés et peut occasionner des fuites de données sensibles, des biais de modèles ou l’empoisonnement des données propriétaires, du fait de données publiques inexactes ou biaisées.