Um desenvolvedor publicou há algumas semanas um aplicativo que utiliza redes neurais para remover as roupas das fotos de mulheres, criando um deep fake que, em vez de alterar o rosto, deixa a pessoa nua. Batizado de DeepNude, ele passou a ganhar mais repercussão após uma reportagem do Motherboard que apontava que o software era vendido por US$ 50 para exibir as imagens sem marca d’água.

Como funciona o DeepNude

O aplicativo que foi disponibilizado para Windows e Linux só funcionava com fotos de mulheres. Bastava uma imagem de uma mulher vestida para que a rede neural trocasse as roupas por imagens de seios e vulva realistas.

O nível de realismo variava de acordo com a foto – se a pessoa estivesse só com um biquíni ou lingerie, era mais provável que os resultados fossem mais convincentes.

O Motherboard conta que ao tentar colocar uma foto de um homem, suas calças foram substituídas por uma vulva.

O algoritmo usa redes contraditórias generativas (GANs em inglês), e foi treinado com milhares de imagens de mulheres nuas. O software é baseado em um algoritmo de código-aberto chamado pix2pix, desenvolvido em 2017 por pesquisadores da Universidade da Califórnia em Berkeley.

O desenvolvedor do aplicativo justificou que treinou o seu software desta maneira pois é mais fácil encontrar fotos de mulheres nuas na internet. Foram utilizadas mais de 10 mil nudes para treinar o programa.

Retirado do ar, mas nem tanto

Após a repercussão da matéria do Motherboard, que aponta diversas questões éticas e morais sobre esse tipo de software, o desenvolvedor retirou do ar os links de download para o DeepNude. Em uma conta no Twitter, ele anunciou que “achamos que venderíamos algumas cópias todo mês de maneira controlada… Nunca achamos que ele viralizaria e que não poderíamos controlar o tráfego”.

Em entrevista ao Motherboard, o desenvolvedor disse ainda que “o que você pode fazer com o DeepNude, você também pode fazer com o Photoshop (depois de ver algumas horas de tutoriais)”, mas que não queria ser o responsável por essa tecnologia.

Apesar disso, o software ainda pode ser encontrado pela internet e provavelmente não deixará de existir. Como aponta o Verge, cópias do DeepNude estão disponíveis em fóruns, chans, canais do Telegram, servidores do Discord, descrições de vídeos no YouTube e até mesmo no repositório GitHub. Uma outra reportagem do Motherboard aponta que algumas plataformas, como o Discord, estão derrubando canais de distribuição do software.

O Gizmodo Brasil conseguiu encontrar com facilidade versões alternativas do software no GitHub – embora seja preciso de um pouco de conhecimento de programação para fazê-las funcionarem. Em uma das páginas, o usuário que publicou o código-fonte do programa em python cita o Efeito Streisand (definindo rapidamente via Wikipedia: um fenômeno da Internet onde uma tentativa de censurar ou remover algum tipo de informação se volta contra o censor). A página indica ainda um link em que outras pessoas podem baixar a arquitetura da principal rede neural do DeepNude.

Em fóruns do Reddit, usuários apontam que é possível encontrar o DeepNude em sites de torrent. Os riscos de malwares e outros softwares maliciosos estarem sendo espalhados junto com uma suposta versão do programa são enormes.

Os danos potenciais de ferramentas como essa são enormes. Os efeitos na saúde mental de quem sofre pornô de vingança já são devastadores, e, agora, ferramentas como essa deixam a um clique de qualquer pessoa a possibilidade de espalhar uma imagem falsa, mas que se parece muito com um conteúdo verdadeiro.

Algumas regiões do mundo já preparam regras que incluem deepfakes nas legislações sobre pornô de vingança. Como bem lembrou uma leitora do Gizmodo Brasil, a lei brasileira já inclui os conteúdos modificados no artigo 216-B do código penal descrito no parágrafo único: “na mesma pena incorre quem realiza montagem em fotografia, vídeo, áudio ou qualquer outro registro com o fim de incluir pessoa em cena de nudez ou ato sexual ou libidinoso de caráter íntimo”. A pena vai de seis meses a um ano e multa.