O ex-presidente Donald Trump na prisão e o papa Francisco de jaqueta estilosa. Esses são exemplos de imagens que surgiram nas redes nas últimas semanas, mas estão longe de serem reais: foram geradas por sistemas de IA (inteligência artificial), como DALL-E, Midjourney e Stable Diffusion.
Enquanto as plataformas de IA generativa só melhoram suas habilidades, fica a dúvida: como detectar o que é verdadeiro e o que é falso nas redes sociais?
Nós temos algumas dicas a partir da ciência, segundo artigo da revista Scientific American. Acompanhe a seguir.
Olhe para as mãos
Até agora, a maior dificuldade das IAs é imitar as mãos humanas. Isso porque elas tendem a aparecer pouco na maioria das imagens, então é difícil para os sistemas distingui-las do resto do corpo. Se você está em dúvida se uma foto é falsa, tente dar um zoom nas mãos de quem aparece na imagem: é possível que a resposta esteja ali.
Procure por “tropeços” da IA
As plataformas de IA generativa tendem a criar fotos que parecem perfeitas quando vistas de longe. Mas basta se atentar aos detalhes para ver coisas que não fazem sentido estar ali. É comum que esses sistemas criem acessórios incompatíveis ou borrem os dentes, por exemplo.
Nas imagens do papa Francisco de jaqueta, é possível ver que a borda do óculos “se mistura” com a pele. Além disso, a mão que segura o copo de café está claramente esquisita e o crucifixo com um Jesus para lá de estranho.
Outro detalhe: as imagens mostram três imagens de Francisco, aparentemente todas “feitas” no mesmo dia. Mas então porque aparecem três jaquetas diferentes? Se você reparar, todas são parecidas, mas não iguais. E o crucifixo só aparece em uma delas.
Desconfie
Toda atenção é pouco na era da IA. Por isso, vale apelar sempre para a desconfiança – ou, no mínimo, para o questionamento. O papa Francisco, por exemplo, é conhecido por usar roupas modestas, o que torna improvável que ele saísse à rua com uma jaqueta tão “chique” mesmo em um dia extremamente frio.
O pontífice também não quase não caminha mais: aos 86 anos, o argentino prioriza saídas em público em sua cadeira de rodas. Também é improvável que ele aparecesse na rua sozinho e segurando um copo de café.
No caso de Trump, vale apelar para o noticiário: se ele tivesse sido preso, todos saberíamos. O ex-presidente dos EUA não ficará atrás das grades sem que antes todos discutamos sobre o assunto – e, mesmo que você seja a pessoa mais por fora do que acontece no mundo, esse certamente é um assunto sobre o qual todos falariam.
As imagens nunca são iguais
O mais comum é que as plataformas de IA generativa não criem o mesmo conteúdo mais de uma vez. Isso significa que as imagens podem até ser parecidas, mas dificilmente serão idênticas.
Isso vale para observar em uma foto que diz ser verdadeira, mas na verdade é falsa, como a jovem Claudia, uma garota de 19 anos que bombou no Reddit vendendo nudes. Tudo ia bem, exceto o fato de que ela não existe: foi criada por dois estudantes para tirar dinheiro dos desavisados.
Nas imagens de Claudia, é possível perceber que ela parece, sim, a mesma pessoa, mas detalhes dão conta de que ela não é sempre igual. Às vezes tem um olho de uma cor, outras vezes de outra. O cabelo muda, assim como o tom da pele e a estatura corporal.
Nós sabemos que ângulos e iluminação interferem, mas uma pessoa aparecer sempre diferente é definitivamente um “alerta vermelho”.
Olhe para imagens artificiais
Para não ser enganado, uma boa saída é observar a composição das imagens artificiais. Geralmente a IA cria um fundo “neutro”, mas não liso, e a pele das pessoas certamente é diferente das que vemos em fotos reais.
Por isso, ter “referência” de como é uma imagem gerada por IA ajuda a identificá-la com mais facilidade.
“Nós, como espécie humana, meio que crescemos pensando que ver é acreditar”, disse Wael AbdAlmageed, professor de ciência da computação na Universidade do Sul da Califórnia. “Isso não é mais verdade. Ver não é mais acreditar”.