_Tecnologia

Siri e Alexa podem ser controladas utilizando mensagens subliminares escondidas em músicas

Uma equipe de estudantes de ciências da computação incorporou alguns sinais subliminares de áudio em músicas, permitindo que controlassem secretamente dispositivos que respondem a comandos de voz. • Assistente de voz da LG não responde a comandos e deixa executivo na mão • Pesquisadores de segurança criaram uma “habilidade” que permite à Alexa te espionar […]

Uma equipe de estudantes de ciências da computação incorporou alguns sinais subliminares de áudio em músicas, permitindo que controlassem secretamente dispositivos que respondem a comandos de voz.

• Assistente de voz da LG não responde a comandos e deixa executivo na mão
• Pesquisadores de segurança criaram uma “habilidade” que permite à Alexa te espionar

Em uma reportagem do New York Times publicada nesta quinta-feira (10), o grupo de estudantes da Universidade da Califórnia em Berkeley e da Universidade de Georgetown detalham a pesquisa que permitiu que enganassem os alto-falantes inteligentes.

A equipe incorporou comandos subliminares, inaudíveis aos ouvidos humanos, em anódino, ruído branco. Enquanto os ouvidos humanos não percebem nada fora do comum, a Siri e Alexa respondem aos comandos. Na pesquisa, as mensagens escondidas podiam ser usadas para colocar um dispositivo em modo avião, abrir páginas da web ou secretamente adicionar itens a carrinhos de compra em lojas virtuais.

“Queremos demonstrar que isso é possível”, disse ao Times Nicholas Carlini, doutorando da Universidade da Califórnia em Berkeley e um dos autores do artigo publicado neste mês. “E então esperamos que outras pessoas digam: ‘Okay isso é possível, vamos testar e consertar’.”

Embora ataques subliminares possam ser perigosos — imagine o caos em uma casa conectada sendo alimentada por comandos confusos para trancar e destrancar portas ou acender luzes —, é importante lembrar que a inteligência artificial que alimenta a Siri e a Alexa não está sendo “hackeada”, mas, na verdade, enganada.

Especialistas em cibersegurança utilizam o termo “exemplo contraditório” para se referir aos potenciais perigos de se enganar uma inteligência artificial para que ela reconheça algo de forma errada.

A pesquisa de Carline e sua equipe pode ser preocupante, particularmente para quem está começando a usar assistentes de voz em suas casas, mas eles não são os primeiros; outros pesquisadores demonstraram exemplos contraditórios que incluem maquiagens ou óculos para enganar softwares de reconhecimento facial, por exemplo.

[New York Times]

Imagem do topo: AP

Sair da versão mobile