Pour gérer vos consentements :

DolphinAttack utilise les ultrasons pour attaquer Siri, Alexa, Cortana, etc.

Si les systèmes de reconnaissance vocale dotés d’algorithmes d’intelligence artificielle (IA) sont supposés assister leurs utilisateurs au quotidien, ils pourraient bien se transformer en complice des pirates. Des chercheurs ont découvert comment piloter les Siri, Google Assistant/Now, Alexa et autre Cortana à l’aide d’ultrason, une fréquence inaudible pour l’oreille humaine.

Selon les chercheurs de l’université Zhejiang en Chine, il suffit avec l’attaque DolphinAttack de moduler la fréquence à 20 000 Hz pour prendre le contrôle des assistants vocaux.

« L’idée fondamentale de DolphinAttack est (a) de moduler le signal vocal en basse fréquence sur un support ultrasonique avant de le transmettre par les airs, et (b) de démoduler les signaux vocaux modulés avec le matériel de capture vocale du récepteur », écrivent les scientifique dans leur publication.

Pour s’en convaincre, les chercheurs ont testé leur attaque sur 16 systèmes de reconnaissance vocale dont Siri sur un iPhone (voir vidéo ci-dessous), Amazon Echo, Google Now et un véhicule connecté, une Audi en l’occurrence. Ils ont ainsi pu prendre le contrôle du système de navigation de la voiture, jouer de la musique sur Echo et ouvrir Facetime sur l’iPhone.

Plus grave, DolphinAttack permet de lancer des commandes pour naviguer sur un site malveillant afin de tenter d’exploiter des failles du système embarqué par le périphérique.

Des conditions d’attaques contraignantes

L’attaque nécessite néanmoins des conditions qui réduisent sa faisabilité. L’émetteur du signal ultrasonique doit se trouver à moins de 2 mètres. L’assistant doit avoir été débloqué et son système de reconnaissance vocale activé, bien entendu.

Qui plus est, le fait qu’il se mette à fonctionner de manière autonome mettra la puce à l’oreille de son utilisateur légitime (s’il est présent à ce moment là). Et si un chien (ou un chat encore plus sensible aux ultrasons) rode dans le coin, son comportement bizarre pourrait également sonner l’alarme.

Néanmoins, pour les universitaires, il s’agit d’une faille qu’il convient de combler pour éviter ce risque d’attaque. Ils invitent les constructeurs d’assistants à bloquer les commandes émises en ultrasons.

« Nous proposons des solutions de défense matérielle et logicielle., déclarent-ils. Nous confirmons qu’il est possible de détecter DolphinAttack en classant les sons à l’aide de la machine concernée et suggérons de redéfinir les systèmes contrôlables par la voix pour être résistants aux attaques de commande vocale inaudibles. »


Lire également
WireX : des centaines d’apps Android infectées au service d’un botnet
Comment s’acheter un MacBook pour 1 dollar via à une faille SAP
iPhone 7 : une boîte pour dérober les codes d’accès sur iOS 10 et 11

Recent Posts

AWS abandonne WorkDocs, son concurrent de Dropbox

Un temps pressenti pour constituer le socle d'une suite bureautique AWS, Amazon WorkDocs arrivera en…

2 jours ago

Eviden structure une marque de « serveurs IA »

Eviden regroupe cinq familles de serveurs sous la marque BullSequana AI. Et affiche le supercalculateur…

2 jours ago

SSE : l’expérience se simplifie plus que les prix

Le dernier Magic Quadrant du SSE (Secure Service Edge) dénote des tarifications et des modèles…

2 jours ago

IA générative : les lignes directrices de l’ANSSI

Formats de paramètres, méthodes d'apprentissage, mutualisation GPU... Voici quelques-unes des recommandations de l'ANSSI sur l'IA…

3 jours ago

De la marque blanche à l’« exemption souveraine », Broadcom fait des concessions aux fournisseurs cloud

À la grogne des partenaires VMware, Broadcom répond par diverses concessions.

3 jours ago

iPadOS finalement soumis au DMA

iPadOS a une position suffisamment influente pour être soumis au DMA, estime la Commission européenne.

3 jours ago