Partager la publication "Google Assistant, Alexa & Siri : les assistants vocaux au cœur d’un drôle de test de piratage"
Des experts en recherche se sont donnés le challenge de tester la résistance au piratage de Google Assistant, Alexa et Siri, les trois assistants vocaux fars du marché. Et ils ont réussi a prendre contrôle de ces derniers.
Les assistants vocaux Google, Alexa et Siri ne sont pas infaillibles au piratage. En effet, sujets à un test de sécurité, des chercheurs ont réussi à prendre le contrôle d’enceintes connectées, de téléphones et de tablettes, simplement en pointant des lasers sur leurs microphones. Ceux qui ont réussi a s’introduire dans le système de ces Assistants vocaux sont chercheurs à l’université d’électro-communication au Japon et de l’Université du Michigan aux États-Unis. Ces derniers ont de par leur expérience, prouvé qu’il était possible de prendre le contrôle des assistants notamment à l’aide d’un faisceau laser sur les microphones des appareils qui les utilisent. Ainsi, si les chercheurs ont pu réussir à détruire le système de ces Assistants vocaux, des personnes malveillantes pourraient en faire autant.
Plus de détails sur l’expérience
Par le biais d’un faisceau de laser orienté sur les microphones des appareils connectés, les chercheurs ont pris le contrôle des Assistants vocaux. Au cours de la démonstration, ces derniers ont piégé une enceinte Google Home en lui demandant notamment d’ouvrir une porte de garage situé à plus de 100 mètres. L’opération a été un succès grâce au rayon laser téléobjectif. Pour savoir comment ça marche il faut comprendre que les lasers trompent les microphones dans le but qu’ils produisent des signaux électriques comme s’ils entendaient la voix de quelqu’un. Cette expérience peut être menée par n’importe qui, ce qui est un véritable danger, puisqu’une fois à l’intérieur des systèmes vocaux, l’individu pourra se livrer à tout ce qu’il veut.
Une expérience en collaboration avec Amazon
A part Amazon qui est au courant et un véritable soutien avec l’expérience, les autres enseignes à savoir; Apple et Google eux n’ont pas encore réagi à l’annonce de cette expérience. Il s’agit sûrement d’un coup dur pour ces deux derniers qui mettent particulièrement un point d’honneur dans l’aspect sécurité de leur système. Cette expérience à toutefois pour mérite de montrer que les Assistants vocaux doivent encore être travaillés. L’entreprise Amazon, elle, est très satisfaite de cette expérience car c’est un moyen de procurer aux clients une garantie pour une sécurité optimale. « La confiance des clients est notre priorité absolue et nous prenons au sérieux leur sécurité et celle de nos produits » a assuré un porte-parole du géant du commerce électronique.
Cette expérience devrait mettre un coup de pression aux différents concepteurs afin d’améliorer davantage le système de protection de leurs différents Assistant vocaux.