Kaspersky présente une formation sécurité sur l'IA

Le module lancé sur la plateforme d’apprentissage Kaspersky Automated Security Awareness Platform (KASAP) doit aider les professionnels à comprendre comment fonctionnent les cyberattaques basées sur l’intelligence artificielle et à s’en protéger.

Les cyberattaques exploitant l’intelligence artificielle deviennent une réalité. Exemple le plus emblématique de ces attaques ultrasophistiquées, ce malheureux employé qui, piégé par des deepfakes de son directeur financier diffusés lors d’une fausse visioconférence, a versé 25 millions de dollars à des cybercriminels. Au-delà de la sophistication des attaques, c’est bien souvent le manque de connaissance de la personne derrière l’écran qui fait défaut, et les pousse à la crédulité.

Dans ce contexte, et alors que le besoin de formation des collaborateurs est immense, Kaspersky a présenté, jeudi 25 juillet, un module dédié à l’intelligence artificielle, lancé sur sa plateforme d’apprentissage Kaspersky Automated Security Awareness Platform (KASAP).

Méthodes d’attaques et risques associés

« Notre nouveau module dédié à l'IA proposé dans la plateforme KASAP représente une étape importante pour permettre à nos utilisateurs d'acquérir une compréhension exhaustive du paysage actuel des cybermenaces et d'apprendre des moyens de les déjouer, tout en renforçant les défenses de leur organisation », a déclaré Tatyana Shumaylova, Senior Product Marketing Manager chez Kaspersky Security Awareness, citée dans un communiqué.

Le programme de ce module façon ''l’IA pour les nuls'' se décline en deux volets. Le premier est axé sur la compréhension des méthodes employées par les acteurs malveillants pour utiliser l’IA et des moyens de lutte existants. Les sujets abordés regroupent la création de fausses vidéos, les photos truquées, l'usurpation d'identité vocale et les services frauduleux basés sur l'IA.

Le second volet s’attarde sur les risques associés à l’IA dans un cadre professionnel, comme les dangers liés à la saisie de données critiques, les violations de droit d’auteur, les jailbreaks pilotés par l’IA, les biais, ou encore la manipulation de paramètres.