_Tecnologia

Astrônomos têm a solução para detectar fotos falsas geradas por IA

De acordo com os pesquisadores, a nova ferramenta para identificar fotos falsas geradas por IA consiste em analisar os reflexos nos olhos de humanos.

Foto do papa gerada por IA

Atualmente, gerar fotos realistas usando IA (Inteligência Artificial) é algo quase trivial, o que desperta preocupações em relação à desinformação e como desmascarar deepfakes. Por isso, cientistas revelaram um novo método para detectar fotos falsas geradas por IA, que pega emprestado uma técnica dos astrônomos.

De acordo com os pesquisadores da Universidade de Hull, no Reino Unido, a nova solução para identificar fotos falsas geradas por IA consiste em analisar os reflexos nos olhos de humanos.

O estudante de mestrado Adejumoke Owolabi, que desenvolveu o estudo, explica no blog da Royal Astronomical Society que esse método não é totalmente eficaz. Porém, pode servir para compor um conjunto de técnicas para identificar deepfakes.

Como funciona o método

Adaptando ferramentas que os astrônomos usam para estudar galáxia, o método identifica fotos geradas por IA ao observar a consistência dos reflexos de luz em globos oculares. De acordo com os pesquisadores, ao aplicar as ferramentas astronômicas, é possível determinar se os reflexos de luz nas fotos geradas por IA são consistentes com a física do mundo real.

Como as diferenças são sutis, os cientistas recorreram às técnicas de análise de luz de galáxias para identificar fotos fakes.

Os olhos de imagens geradas por IA têm padrões de reflexos de luz fisicamente inconsistentes. Imagem: Adejumoke Owolabi/Divulgação

Para testar a eficácia, Owolabi criou rostos falsos usando um gerador de imagens e analisou os reflexos de fontes de luz nos olhos usando duas medidas em pesquisas astronômicas: o sistema CAS e o índice Gini.

O primeiro quantifica a concentração, assimetria e a suavidade da distribuição de luz de um objeto. Por outro lado, o Gini mede a desigualdade da distribuição de luz em imagens de galáxias. Ao usar as duas técnicas, os pesquisadores conseguiram identificar a autenticidade das imagens com uma precisão de 70%.

De acordo com os cientistas, o índice Gini era melhor que o sistema CAS para detectar deepfakes.

Por outro lado, segundo o astrofísico Brant Robertson, o estudo é útil, mas também representa um risco. “Se você consegue calcular uma métrica que quantifica o quão realista é uma imagem gerada por IA, você também pode treinar um modelo de IA para gerar deepfakes ainda melhores”, diz o cientista.

Sair da versão mobile