Siri, Alexa… les assistants vocaux tous vulnérables à « l’attaque du dauphin »

En transmettant des signaux audio au-delà de 20 kHz, inaudibles pour les oreilles humaines, il est possible de passer des ordres aux assistants vocaux. C’est la technique dite de l’attaque du dauphin. 

Comment pirater les nouveaux assistants vocaux qui nous aident à connaître la météo ou à commander des produits sur Amazon ? Des chercheurs chinois de l’Université de Zhejiang ont trouvé la brèche : utiliser des fréquences sonores inaudibles par l’humain pour déclencher discrètement les assistants vocaux qui eux, perçoivent ces sons. La technique a l’avantage d’être bon marché. Elle s’inspire du mode de communication des dauphins qui sont capables d’envoyer des impulsions acoustiques. 

Tous les assistants vocaux sont concernés que ce soit Siri d’Apple, Alexa d’Amazon ou Cortana de Microsoft et donc les PC Windows, Mac ou les smartphones en règle générale. Ainsi, il est possible de discrètement activer Siri par exemple mais également de lui donner des ordres comme passer un appel ou déclencher un achat sur Amazon en passant par l’enceinte Echo équipée d’Alexa.

[embed]https://youtube.com/watch?v=21HjF4A3WE4[/embed]

C’est donc ni plus ni moins une faille de sécurité car rien n’empêche une personne mal intentionnée de forcer un Mac équipé de Siri d’aller sur un site corrompu par exemple. Mais imaginons aussi que ces systèmes, s’ils sont installés dans des voitures, pourraient donc être très dangereux. D’autant plus que les chercheurs chinois ont dépensé la somme folle de 3 dollars (!) en matériel pour mettre au point leur système de hacking.