Uma equipe de estudantes de ciências da computação incorporou alguns sinais subliminares de áudio em músicas, permitindo que controlassem secretamente dispositivos que respondem a comandos de voz.
• Assistente de voz da LG não responde a comandos e deixa executivo na mão
• Pesquisadores de segurança criaram uma “habilidade” que permite à Alexa te espionar
Em uma reportagem do New York Times publicada nesta quinta-feira (10), o grupo de estudantes da Universidade da Califórnia em Berkeley e da Universidade de Georgetown detalham a pesquisa que permitiu que enganassem os alto-falantes inteligentes.
A equipe incorporou comandos subliminares, inaudíveis aos ouvidos humanos, em anódino, ruído branco. Enquanto os ouvidos humanos não percebem nada fora do comum, a Siri e Alexa respondem aos comandos. Na pesquisa, as mensagens escondidas podiam ser usadas para colocar um dispositivo em modo avião, abrir páginas da web ou secretamente adicionar itens a carrinhos de compra em lojas virtuais.
“Queremos demonstrar que isso é possível”, disse ao Times Nicholas Carlini, doutorando da Universidade da Califórnia em Berkeley e um dos autores do artigo publicado neste mês. “E então esperamos que outras pessoas digam: ‘Okay isso é possível, vamos testar e consertar’.”
Embora ataques subliminares possam ser perigosos — imagine o caos em uma casa conectada sendo alimentada por comandos confusos para trancar e destrancar portas ou acender luzes —, é importante lembrar que a inteligência artificial que alimenta a Siri e a Alexa não está sendo “hackeada”, mas, na verdade, enganada.
Especialistas em cibersegurança utilizam o termo “exemplo contraditório” para se referir aos potenciais perigos de se enganar uma inteligência artificial para que ela reconheça algo de forma errada.
A pesquisa de Carline e sua equipe pode ser preocupante, particularmente para quem está começando a usar assistentes de voz em suas casas, mas eles não são os primeiros; outros pesquisadores demonstraram exemplos contraditórios que incluem maquiagens ou óculos para enganar softwares de reconhecimento facial, por exemplo.
Imagem do topo: AP