Pesquisadores fazem Alexa obedecer comandos ocultos em falas, músicas e até cantos de pássaros

A Alexa, assistente virtual da Amazon que habita diversos produtos, como os alto-falantes Echo, é uma das coisas mais futurísticas que a tecnologia nos entregou até hoje. O problema é que, às vezes, ela lembra os momentos mais assustadores da ficção científica, dando risadas malignas aleatórias ou dizendo sem nenhum motivo aparente coisas macabras. A […]

A Alexa, assistente virtual da Amazon que habita diversos produtos, como os alto-falantes Echo, é uma das coisas mais futurísticas que a tecnologia nos entregou até hoje. O problema é que, às vezes, ela lembra os momentos mais assustadores da ficção científica, dando risadas malignas aleatórias ou dizendo sem nenhum motivo aparente coisas macabras. A coisa fica ainda pior com uma recente descoberta de pesquisadores alemães: eles dizem que é possível esconder comandos para a inteligência artificial em áudios aparentemente banais, como falas, músicas e até passarinhos cantando.

• Um Amazon Echo gravou conversa entre casal e a enviou para outro usuário
• Siri e Alexa podem ser controladas utilizando mensagens subliminares escondidas em músicas

Os cientistas da Universidade de Ruhr em Bochum descobriram uma maneira de colocar ruídos ocultos imperceptíveis ao ouvido humano, mas que podem disparar todo tipo de ação por assistentes virtuais que atendem comandos de voz.

Para isso, eles lançaram mão de um recurso chamado “efeito de máscara”. Segundo a pesquisadora Dorothea Kolossa, ele se baseia na teoria psicoacústica da audição, que diz que, quando ouvimos um som muito alto de uma certa frequência, deixamos de perceber outros de frequências diferentes por alguns milissegundos. Assim, não percebemos os ruídos que disparam os comandos. Só que eles estão lá, e as inteligências artificiais são programadas para ouvir tudo, então elas podem ouvi-los e obecedê-los.

Ainda não se tem notícia de nenhum ataque que tenha explorado essa possibilidade, mas os cenários previstos pela Fast Company são bastante preocupantes.

Ataques podem ser tocados em um app, por exemplo, ou em um comercial de TV ou programa de rádio. Assim, eles poderiam hackear milhares de pessoas — e, potencialmente, fazer compras ou roubar informações privadas. “No pior caso, um malfeitor pode ter a possibilidade de tomar o controle do sistema de smart home inteiro, incluindo sistemas de alarme e câmeras de segurança”, escrevem os autores.

Os áudios de exemplo dão uma boa dimensão disso. Em um deles, o comando oculto é “desativar câmera de segurança e destrancar a porta da frente”. Por garantia, você pode colocar uma senha na Alexa para confirmar ações mais sensíveis, mas essa opção vem desativada por padrão.

O estudo testou apenas entradas diretas dos arquivos de áudio na inteligência artificial. Os pesquisadores garantem, porém, que o efeito deve ser o mesmo ao ouvir o mesmo trecho sendo tocado por um alto-falante, por exemplo.

Em resposta à Fast Company, a Amazon disse que leva as questões de segurança a sério e está analisando as descobertas dos pesquisadores.

[Fast Company]

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas