Depois que o Reddit e a plataforma de hospedagem de GIFs Gfycat começaram a remover vídeos pornô digitalmente alterados por meio de técnicas de machine learning que trocavam o rosto das atrizes pelo de outras pessoas — um gênero conhecido como deepfake —, o site Pornhub está seguindo a deixa.

• A principal busca dos brasileiros no PornHub em 2017 foi Overwatch
• É melhor ficar esperto se você assiste pornografia pelo Android

De acordo com o Motherboard, o Pornhub disse que considera a geração de deepfakes de outras pessoas claramente não consensual. O site comparou os deepfakes com pornografia de vingança e acrescentou que irá remover o conteúdo do site:

“Não toleramos qualquer conteúdo não consensual no site e vamos remover tal conteúdo assim que soubermos dele”, um porta-voz da página contou ao Gizmodo por email. “Conteúdo não consensual viola diretamente nossos termos de serviço e consiste de conteúdo como pornografia de vingança, deepfakes ou qualquer coisa publicada sem o consentimento ou permissão de uma pessoa.” O Pornhub havia dito anteriormente ao Mashable que tinha removido deepfakes sinalizados por usuários.

Como apontou o Motherboard e uma rápida pesquisa pelo Gizmodo confirmou, vários vídeos assim permaneciam no site e eram facilmente acessíveis, usando os termos de busca óbvios “deepfake” ou “deepfakes”. Aparentemente, o Pornhub pode estar esperando que os usuários denunciem o conteúdo para eles, talvez uma proposta dúbia, considerando a probabilidade de que as pessoas buscando o conteúdo não estejam particularmente interessadas em vê-lo removido.

Apesar do fato de que os termos de serviço do Reddit claramente declarem que mídias envolvendo “qualquer pessoa em um estado de nudez ou envolvida em qualquer ato de conduta sexual registrado e publicado sem sua permissão” são proibidas e embora alguns dos conteúdos de deepfakes pareçam ter sido removidos, o subreddit r/deepfakes permanece online e ativo, gerando mais desses vídeos. O Gfycat disse ao Gizmodo que iria “ativamente remover o conteúdo de nossa plataforma”. Segundo o Motherboard, o serviço de chat Discord também eliminou salas de chat relacionadas a deepfakes.

Além de ser repugnante, não consensual e uma forma de assédio para aqueles sendo colocados neles, quase todos os deepfakes estão provavelmente infringindo direitos autorais, já que foram gerados usando centenas ou milhares de imagens tiradas de mecanismos de busca. Embora possa ser difícil mostrar de onde surgiram as imagens alteradas por machine learning, o Pornhub derruba todos os conteúdos postados por usuários que infrinjam direitos autorais diante de solicitação.

Entretanto, como apontou a Wired, os recursos legais para as vítimas de deepfake são limitados, já que os vídeos, tecnicamente, não se classificam como invasões de privacidade, “porque, diferentemente de uma foto nua roubada da nuvem, esse tipo de material é falso”. Os tribunais também poderiam decidir que os deepfakes são protegidos pela Primeira Emenda dos Estados Unidos, embora seja possível que estejam violando estatutos antidifamação.

É muito provável que os criadores de deepfakes sigam para outros sites, o que significa que, como qualquer outro tipo de conteúdo, ele é impossível de se tirar completamente da internet. Os usuários no subreddit de deepfakes parecem ter se voltado para sites alternativos de hospedagem de vídeos, como Erome ou Sendvid, entre outros, depois da remoção de seu conteúdo do Gfycat.

Nem todo deepfake é conteúdo pornográfico por natureza. As técnicas usadas para criá-los podem ser facilmente aplicadas para propósitos menos maliciosos, como trocar o Harrison Ford pelo Nicholas Cage em cenas de Os Caçadores da Arca Perdida.

[Motherboard]

Imagem do topo: AP