Talvez em algum momento de 2020 você tenha se deparado com o vídeo sobre “uma criatura circulando” pelas ruas de Fortaleza (CE), Ilhéus (BA), João Pessoa (PB) ou Teixeira de Freitas (BA). De primeira parece algo curioso, assustador, inédito e até engraçado, mas na verdade esse tipo de conteúdo, além de ser uma mentira alarmista, evidencia que a manipulação de imagens e vídeos se tornou uma prática muito perigosa e corriqueira.

As Deepfakes são fruto de uma técnica bastante utilizada e debatida, principalmente a respeito de suas consequências. Trata-se da tentativa de repetir comportamentos humanos com base em milhões de imagens alocadas em bancos de dados e produzidas em processos de aprendizado de máquina a partir de redes neurais. Assim, é possível, por exemplo, fazer com que o Justin Bieber venha passear no Brasil, que o Barack Obama ofenda o Trump, criar um looping de Marthin Luther King e até a criação de nudes falsos.

Há diversos problemas sérios em torno das Deepkakes, como:

  • a criação de “fatos” difíceis de distinguir se é realidade ou ficcional;
  • a popularização de aplicativos especializados em criar esse tipo de material e seus interesses comerciais;
  • esses aplicativos disponibilizam um variado banco de imagens de personalidades públicas, todavia muitas vezes sem a expressa autorização do uso de sua imagem;
  • inserção de pessoas em contextos adversos como em falácias, pornografia ou crimes;
  • espalhamento rápido e em larga escala por meio das plataformas de mídias sociais;
  • e impacto direto na conversação pública por meio de produção de desinformação.

O relatório Deepfakes and Cheap Fakes do Data & Society mostra como funcionam os processos de manipulação de vídeos e imagens usando aprendizado de máquina a partir de redes neurais e por ferramentas mais populares, as chamadas “cheap fakes” expressão que pode ser traduzida como “falsificação barata”.

No infográfico abaixo (em inglês) há alguns exemplos de manipulação audiovisual (AV) que ilustram como os deepfakes e essas “falsificações baratas” se diferenciam em sofisticação técnica. Da esquerda para a direita, a complexidade técnica diminui e a capacidade do público em geral de produzir falsificações aumenta. Por outro lado, o desenvolvimento de deepfakes é mais dependente computacionalmente e menos acessível.

Outro estudo realizado pelos pesquisadores Shu Hu, Yuezun Li Siwei Lyu da Universidade de Buffalo (EUA) propõe uma ferramenta que pretende revelar se determinada imagem é uma deepfake através do reflexo nos olhos, o que eles chamam de “a inconsistência dos destaques especulares da córnea entre os dois olhos sintetizados”. Os pesquisadores desenvolveram uma base de dados para o estudo com fotos reais do Flicker-Faces-HQ e fotografias falsas do site This Person Does Not Exist (Esta Pessoa Não Existe), plataforma que disponibiliza fotos de pessoas criadas a partir da mesma lógica de aprendizado de máquina e redes neurais.

Segundo os pesquisadores, a partir da análise do espelhamento da córnea gerado somente em fotografias reais é possível observar as disparidades com imagens não reais, por exemplo formas geométricas e posição do reflexo de forma desigual. Ou seja, ao olhar para uma mesma cena os dois olhos vão transmitir de maneira similar o reflexo do ambiente, o que não ocorre em imagens produzidas por aprendizado de máquina. A ferramenta ainda está em fase de ajustes, como os próprios autores apontam no artigo “contextos e condições das fotografias podem gerar falsos positivos”, mas no artigo publicado em outubro de 2020 os testes chegaram a 94% de eficácia.

Como afirma Milton Santos em uma passagem de Técnica, Espaço, Tempo – Globalização e meio técnico-científico informacional: “Quando a crítica não é acompanhada pela análise, ela permite a mobilização, mas não a construção. A crítica deveria suceder à análise, mas o que acontece, na maioria dos casos, é que a necessidade de ser crítico opera como se o analítico fosse dispensável”.

Especialistas defendem que algumas respostas possíveis às deepfakes e outras técnicas de manipulação de conteúdo devem estar amparadas em regulação e normas, educação midiática, mudança de postura cultural da sociedade para lidar e evitar com esse tipo de conteúdo e responsabilização das plataformas. É preciso uma abordagem interdisciplinar, interseccional e aprofundada para compreender as causas, consequências e contenções dessa modalidade de distorção da realidade a partir do uso de tecnologias.