_Cibersegurança

Espião usou foto criada por inteligência artificial para adicionar alvos no LinkedIn

O LinkedIn pode ser um bom lugar para procurar emprego, mas também é um prato cheio para espiões. Especialistas dizem ter encontrado um caso em que um espião usou um rosto gerado por inteligência artificial para se conectar com seus alvos, de acordo com uma reportagem da Associated Press. Se você já usou o LinkedIn, […]

Foto de mulher branca de cabelo ruivo e olhos claros.

Ela parecia uma Reese Witherspoon ruiva, mas era fake. Captura de tela: Linkedin

O LinkedIn pode ser um bom lugar para procurar emprego, mas também é um prato cheio para espiões. Especialistas dizem ter encontrado um caso em que um espião usou um rosto gerado por inteligência artificial para se conectar com seus alvos, de acordo com uma reportagem da Associated Press.

Se você já usou o LinkedIn, sabe que o site aconselha a não se conectar com ninguém que você não conhece. No entanto, muitos usuários ignoram essa recomendação na esperança de fazer conexões vantajosas para suas carreiras — o que, segundo especialistas, o torna um excelente local de caça para espiões. Em um dos caso, a AP descobriu uma conta de alguém que usava o nome Katie Jones.

Apesar de ter apenas 52 conexões, o perfil estava ligado a algumas pessoas influentes. O perfil ostentava um emprego em um think tank bem conhecido e contava, entre suas conexões, com importantes especialistas, funcionários do governo e até mesmo Paul Winfree — potencial candidato para um cargo no Federal Reserve dos EUA.

Claro, a AP acabou descobrindo que “Katie Jones” era um perfil fantasma. Seu local de trabalho no Centro de Estudos Estratégicos e Internacionais em Washington foi considerado falso, assim como sua graduação em estudos russos pela Universidade de Michigan. O perfil de Katie Jones foi excluído desde então.

Outro detalhe interessante: uma análise de especialistas sobre a imagem do perfil revelou que quase certamente ela foi criada por uma rede generativa adversarial (GAN, na sigla em inglês). Esse é um tipo de inteligência artificial em que um computador pode criar uma face hiper-realista de uma pessoa que não existe. Você só precisa procurar sites como ThisPersonDoesNotExist.com para ver como as faces geradas por GAN podem ser realistas e por que especialistas em inteligência estão preocupados. As GANs também não se limitam a rostos humanos. Eles também foram usados ​​para criar cães e carros de mentira.

Dito isso, embora essa possa ser a primeira ocorrência relatada de um espião usando GAN para se aproximar de um alvo, não é a primeira vez que temos notícias de impostores usando inteligência artificial. Sabe-se que os vídeos deepfake falsificam figuras conhecidas, incluindo o presidente russo Vladimir Putin e o ex-presidente dos EUA Barack Obama. Mais recentemente, um deepfake do CEO do Facebook, Mark Zuckerberg, se tornou viral. Não é preciso muita imaginação para vislumbrar como essa tecnologia poderia ser utilizada para fins escusos.

Por outro lado, na prática, o exemplo de Katie Jones não é diferente de outros métodos de criação de impostores online, como o uso de fotos de bancos de imagens ou o roubo de fotos de perfis reais de outras contas de mídia social. Sim, especialistas dizem que as redes generativas adversariais foram usadas neste caso, mas o usuário médio — e até mesmo pessoas influentes — não se esforça muito em investigar cada estranho que a adiciona como amiga. Portanto, parece exagero ficar chocado com uma foto artificial.

E considerando o fato de que o reconhecimento facial, os uploads de fotos pessoais e as capacidades de pesquisa estão avançando rapidamente, é possível que, em breve, todos nós suspeitemos de uma foto que não retorne muitos resultados semelhantes ao ser jogada na boa e velha busca reversa de imagens.

Então, novamente, hábitos básicos de segurança são cruciais. Mesmo que pareça inofensivo, talvez seja melhor não adicionar no LinkedIn pessoas que você não conhece.

[Associated Press]

Sair da versão mobile