La polémique sur les écoutes des conversations sur les enceintes intelligentes se poursuit. Des chercheurs en cybersécurité ont démontré qu’il était possible d’envoyer des commandes vocales aux haut-parleurs intelligents sous forme d’impulsions laser. Pour cela, il suffit de pointer le flux de lumière sur le microphone de l’appareil pour que celui-ci l’interprète comme un son. Cette technique, appelée « Light command », pourrait être utilisée par des pirates pour demander à l’enceinte de lancer des actions précises. Les chercheurs ont dévoilé plusieurs vidéos montrant comment ils ont pu demander à Google Home d’ouvrir la porte du garage, donner l’heure, etc. Une autre vidéo montre comment utiliser le laser sur plusieurs bâtiments en même temps. Selon les experts, cette technique marche sur n’importe quel appareil intelligent. Ils l’ont testé aussi bien sur des enceintes connectées comme Google Home, Alexa, Portal Mini de Facebook, que sur des smartphones comme l’iPhone XR, l’iPad 6, le Samsung Galaxy S9 et le Google Pixel 2.

« Light command » est dans les faits surtout théorique. Dans la pratique, c’est tout autre chose, car la technique n’est pas facile à réaliser, voire impossible. Tout d’abord, le pirate a besoin d’avoir une bonne visibilité sur l’appareil. Si celui-ci reste à l’écart des fenêtres, ou que les rideaux sont fermés, il n’a aucun moyen de procéder à l’attaque. Il doit également utiliser un matériel spécialisé pour moduler la fréquence du laser. Techniquement, c’est réalisable, vu que la plupart des composants nécessaires sont disponibles sur Amazon. Mais leur assemblage nécessite quand même une certaine expertise technique. De plus, les appareils eux-mêmes disposent de leur propre dispositif de sécurité. Siri, par exemple, demande à l’utilisateur de déverrouiller son téléphone, ou d’écouter une voix qu’il connaît avant de lancer une commande. Par ailleurs, la plupart des appareils intelligents comme les voitures ou les garages sont dotés d’un code PIN. Même si le pirate arrive à « énoncer » le code par le « Light command », il lui est difficile de reproduire la voix du propriétaire. Néanmoins, les chercheurs conseillent aux fabricants d'enceintes intelligentes de revoir leur dispositif de sécurité. Ils estiment que les commandes vocales doivent être validées par deux micros au lieu d’un, ou qu’un écran soit placé devant celui-ci. Google et Amazon ont considéré le document, tandis qu’Apple et Facebook ne se sont pas encore manifestés.

À lire aussi IKEA : une prise connectée compatible avec Google Home, Amazon Echo et Apple Homekit