Novo hack permite enviar comandos via laser a alto-falantes inteligentes
Se os assistentes de voz já não apresentavam riscos de segurança o suficiente, agora foi descoberta mais uma vulnerabilidade que permite que uma pessoa envie comandos às inteligências artificiais de alto-falantes, celulares e tablets usando um laser. Sim, aquele mesmo aparelhinho irritante com que algumas pessoas gostam de ficar brincando em estádios ou salas de cinema.
Pesquisadores das Universidades de Tóquio e de Michigan conseguiram assumir o controle de dispositivos com Google Assistente, Siri e Alexa apontando um laser para a entrada de microfone dos aparelhos.
Os resultados dos experimentos realizados durante sete meses foram publicados em um artigo e descrevem como eles conseguiram “hackear” dispositivos a 11 metros de distância. Segundo os pesquisadores, existe uma pequena placa chamada diafragma dentro dos microfones desses aparelhos que se move quando é atingida pelo som. O que os lasers fazem é replicar esse movimento e convertê-lo em sinais elétricos que possam ser compreendidos pelo dispositivo.
Os comandos via laser permitiriam que uma pessoa pudesse mandar um assistente abrir a porta de uma garagem, fazer comprar online, abrir portas protegidas por fechaduras inteligentes e até mesmo destrancar carros conectados a dispositivos que utilizam assistentes de voz.
A equipe conseguiu hackear os seguintes dispositivos por meio da técnica de laser: Google Home/Nest, Echo Plus/Show/Dot, Facebook Portal Mini, Fire Cube TV, EchoBee 4, iPhone XR, iPad 6ª Geração, Samsung Galaxy S9 e Google Pixel 2. No entanto, eles afirmam que os alto-falantes inteligentes foram muito mais fáceis de controlar – com dispositivos móveis, o método só funcionou a uma distância máxima de 5 a 20 metros.
Um ponto preocupante é que um hacker poderia utilizar um laser infravermelho, que não é visível ao olho humano. Além disso, no caso dos alto-falantes, o laser pode viajar através do vidro de janelas, o que significa que um ataque pode ser feito até mesmo de outro prédio.
Essa não é a primeira falha de segurança encontrada nesses dispositivos. Conforme menciona o Engadget, pesquisadores da Zheijiang University, na China, descobriram que é possível manipular assistentes de voz, incluindo Siri e Alexa, utilizando frequências ultrassônicas. Já uma equipe da Universidade da California, em Berkeley, conseguiu incorporar comandos em músicas e textos falados que não poderiam ser ouvidos por um humano, mas sim por alto-falantes.
Aparentemente, a falha ainda não foi explorada por hackers, e os pesquisadores já notificaram a Tesla, Ford, Amazon, Apple e Google sobre a vulnerabilidade. Segundo eles, a maioria dos microfones teria que ser reformulada para resolver o problema.