
passer des appels téléphoniques, effectuer des achats non autorisés, selon les résultats d'une recherche
Des chercheurs universitaires ont mis au point un nouveau hack fonctionnel qui réquisitionne les haut-parleurs connectés Amazon Echo et les oblige à déverrouiller les portes, à passer des appels téléphoniques et des achats non autorisés, et à contrôler les fours, les fours à micro-ondes et d'autres appareils connectés.
Le hack fonctionne en utilisant le haut-parleur de l'appareil pour émettre des commandes vocales. Tant que le discours contient le mot de réveil de l'appareil (généralement "Alexa" ou "Echo"

Parce que le hack utilise la fonctionnalité Alexa pour forcer les appareils à effectuer des commandes autoémises, les chercheurs l'ont surnommé "AvA", abréviation d'Alexa contre Alexa. Il ne nécessite que quelques secondes de proximité avec un appareil vulnérable lorsqu'il est allumé afin qu'un attaquant puisse prononcer une commande vocale lui demandant de se coupler avec l'appareil compatible Bluetooth d'un attaquant. Tant que l'appareil reste à portée radio de l'Echo, l'attaquant pourra émettre des commandes.
L'attaque « est la première à exploiter la vulnérabilité des commandes arbitraires autoémises sur les appareils Echo, permettant à un attaquant de les contrôler pendant une période prolongée », ont écrit les chercheurs dans un article. « Avec ce travail, nous supprimons la nécessité d'avoir un haut-parleur externe près de l'appareil cible, augmentant ainsi la probabilité globale de l'attaque ».
Une variante de l'attaque utilise une station de radio malveillante pour générer les commandes autoémises. Cette attaque n'est plus possible de la manière indiquée dans l'article suite aux correctifs de sécurité publiés par Amazon, le constructeur d'Echo, en réponse à la recherche. Les chercheurs ont confirmé que les attaques fonctionnent contre les appareils Echo Dot de 3e et 4e génération.
AvA commence lorsqu'un appareil Echo vulnérable se connecte par Bluetooth à l'appareil de l'attaquant (et pour les Echos non patchés, lorsqu'ils diffusent la station de radio malveillante). À partir de là, l'attaquant peut utiliser une application de synthèse vocale ou d'autres moyens pour diffuser des commandes vocales. Voici une vidéo d'AvA en action. Toutes les variantes de l'attaque restent viables, à l'exception de ce qui est affiché entre 1:40 et 2:14 :
Les chercheurs ont découvert qu'ils pouvaient utiliser AvA pour forcer les appareils à exécuter une multitude de commandes, dont beaucoup avaient de graves conséquences sur la confidentialité ou la sécurité. Les actions malveillantes possibles incluent :
- contrôler d'autres appareils connectés par exemple pour éteindre les lumières, allumer un four à micro-ondes connecté, régler le chauffage à une température dangereuse ou déverrouiller les serrures de porte connectée. Comme indiqué précédemment, lorsque les échos nécessitent une confirmation, l'adversaire n'a qu'à ajouter un "oui" à la commande environ six secondes après la demande ;
- appeler n'importe quel numéro de téléphone, y compris celui contrôlé par l'attaquant, afin qu'il soit possible d'écouter les sons à proximité. Alors que les Echo utilisent une lumière pour indiquer qu'ils passent un appel, les appareils ne sont pas toujours visibles pour les utilisateurs, et les utilisateurs moins expérimentés peuvent ne pas savoir ce que signifie la lumière ;
- faire des achats non autorisés en utilisant le compte Amazon de la victime. Bien qu'Amazon enverra un e-mail informant la victime de l'achat, l'e-mail peut être manqué ou l'utilisateur peut perdre confiance en Amazon. Alternativement, les attaquants peuvent également supprimer des éléments déjà présents dans le panier du compte ;
- altérer le calendrier précédemment lié d'un utilisateur pour ajouter, déplacer, supprimer ou modifier des événements ;
- se faire passer pour des skills ou lancer n'importe quelle skill au choix de l'attaquant. Ceci, à son tour, pourrait permettre aux attaquants d'obtenir des mots de passe et des données personnelles. Pour mémoire, les skills (compétences) sont, en quelque sorte, l’équivalent des applications sur mobile. Les Skills ajoutent de nouvelles fonctionnalités à Alexa. Elles vous permettent de personnaliser l’utilisation de votre Amazon Echo ou de vos appareils qui intègrent Alexa ;
- récupérer tous les énoncés prononcés par la victime. En utilisant ce que les chercheurs appellent une "attaque masquée", un attaquant peut intercepter des commandes et les stocker dans une base de données. Cela pourrait permettre à l'attaquant d'extraire des données privées, de recueillir des informations sur les compétences utilisées et de déduire les habitudes des utilisateurs.
Les chercheurs ont écrit :
« Avec ces tests, nous avons démontré qu'AvA peut être utilisée pour donner des commandes arbitraires de n'importe quel type et longueur, avec des résultats optimaux. En particulier, un attaquant peut contrôler les lumières connectées avec un taux de réussite de 93 %, acheter avec succès des articles indésirables sur Amazon 100 % du temps, et falsifier un calendrier lié avec un taux de réussite de 88 %. Les commandes complexes qui doivent être reconnues correctement dans leur intégralité pour réussir, comme l'appel d'un numéro de téléphone, ont un taux de réussite quasi optimal, en l'occurrence 73 %. De plus, les résultats présentés dans le tableau 7 démontrent que l'attaquant peut mettre en place avec succès une attaque de masquage vocal par notre compétence Mask Attack sans être détecté, et tous les énoncés émis peuvent être récupérés et stockés dans la base de données de l'attaquant, à savoir 41 dans notre cas ».
Comme indiqué précédemment, Amazon a corrigé plusieurs des faiblesses, dont une qui utilisait les compétences d'Alexa pour réveiller automatiquement les appareils, ce qui permettait d'utiliser facilement les stations de radio pour fournir des commandes autoémises. Dans un communiqué, les responsables de l'entreprise ont écrit :
« Chez Amazon, la confidentialité et la sécurité sont fondamentales dans la conception et la livraison de chaque appareil, fonctionnalité et expérience. Nous apprécions le travail des chercheurs en sécurité indépendants qui aident à attirer notre attention sur les problèmes potentiels et nous nous engageons à travailler avec eux pour sécuriser nos appareils. Nous avons résolu le problème d'autoréveil à distance avec Alexa Skills causé par de longues périodes de silence résultant de balises de rupture, comme l'ont démontré les chercheurs. Nous avons également des systèmes en place pour surveiller en permanence les compétences en direct afin de détecter tout comportement potentiellement malveillant, y compris les nouvelles invites silencieuses. Toutes les compétences fautives que nous identifions sont bloquées lors de la certification ou rapidement désactivées, et nous améliorons constamment ces mécanismes pour protéger...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.