Na ausência de ferramentas proativas para impedir imbecis de publicar fotos íntimas sem consentimento na internet, vítimas de pornografia de vingança têm poucos recursos certeiros para garantir que suas imagens parem de circular online. É um jogo exaustivo e devastador de gato e rato, e mesmo quando as imagens são efetivamente apagadas, o dano já foi feito. Na última sexta-feira (15), o Facebook anunciou que está aumentando seu programa para policiar o compartilhamento de imagens sem consentimento. Isso soa como um vislumbre de esperança na luta contra esse grave problema.

Mas o esforço mais recente do Facebook, por mais promissor que seja, segue frustrantemente vago, deixando os usuários vulneráveis com perguntas não respondidas.

O Facebook anunciou, em um post publica nesta sexta-feira, sua “nova tecnologia de detecção” que vai ajudar a sinalizar e remover fotos íntimas compartilhadas em sua plataforma sem o consentimento da pessoa. “Usando aprendizagem de máquina e inteligência artificial, agora conseguimos detectar proativamente imagens ou vídeos de seminudez que são compartilhados sem permissão no Facebook e no Instagram”, escreveu Antigone Davis, chefe global de segurança do Facebook, no post. “Isso significa que podemos encontrar esse conteúdo antes que qualquer pessoa o denuncie, o que é importante por duas razões: frequentemente, as vítimas temem retaliação, então, relutam em denunciar o conteúdo por conta própria, ou não sabem que o conteúdo foi compartilhado.”

A tecnologia que o Facebook anunciou na sexta-feira vai detectar fotos íntimas que já foram publicadas no Facebook e no Instagram. Um “membro especialmente treinado” da equipe de Operações da Comunidade do Facebook vai, então, rever as imagens e removê-las da plataforma se concluir que elas violam os Padrões da Comunidade da rede social. A equipe também desabilitará as contas que compartilharam tal conteúdo “na maioria dos casos”, de acordo com Davis.

A nova tecnologia de detecção do Facebook funcionará em conjunto com o programa piloto anunciado no ano passado, que permite que os usuários enviem preventivamente para a empresa fotos íntimas que não queiram que sejam compartilhadas no Facebook, Instagram ou Messenger. As imagens são revisadas por uma equipe de cinco funcionários do Facebook, passam por função hash, e então qualquer imagem que corresponda aos hashes será impedida de ser enviada para os serviços.

Além de reforçar seus esforços para acabar com a pornografia de vingança no site, o Facebook também está lançando um “centro de apoio” para vítimas chamado “Não Sem Meu Consentimento“, onde “as vítimas podem encontrar organizações e recursos para apoiá-las, incluindo medidas que podem tomar para remover o conteúdo de nossa plataforma e impedir que ele seja mais compartilhado — e elas podem acessar nosso programa piloto”, escreve Davis.

O que permanece incerto é como a nova ferramenta de inteligência artificial do Facebook será capaz de identificar se as fotos íntimas que sinaliza foram publicadas sem o consentimento de alguém. Às vezes, é legítimo que as empresas de tecnologia mantenham sob sigilo o complexo funcionamento interno das ferramentas antiassédio, de forma que os maus atores não possam abusar delas ou explorá-las. Nesse caso, no entanto, precisamos entender mais sobre essa nova tecnologia.

O Facebook não precisa liberar um projeto detalhado de sua tecnologia de detecção, mas deve poder nos dizer como ele consegue determinar a intenção por trás de um usuário que compartilha uma foto íntima. Essa é uma ferramenta destinada a ajudar alguns dos usuários mais vulneráveis do Facebook, e deixá-los desinformados sobre funcionalidades cruciais transforma em um desafio ainda maior a tentativa de conquistar a confiança no sistema.

Os esforços iniciais do Facebook para combater a pornografia de vingança tornaram inerentemente óbvio que uma foto que alguém está tentando publicar está sendo compartilhada sem consentimento, já que a potencial vítima compartilhou preventivamente a imagem para garantir que ela não fosse publicada online. Esse não é o caso da nova tecnologia de detecção da rede — essas fotos são sinalizadas depois do upload, e não está claro se elas são as que foram denunciadas ao Facebook.

Como é que essa tecnologia de detecção será capaz de discernir entre uma foto de lingerie de si mesma que alguém publica com confiança e uma foto de uma mulher de lingerie que foi tirada em privado por um ex-parceiro que agora está postando de forma vingativa em sua rede social? Ou como essa nova tecnologia de detecção será capaz de diferenciar pornografia de vingança de uma obra de arte contendo nudez ou de uma foto historicamente significativa?

Moderar grandes plataformas como o Facebook é difícil, e os esforços da empresa para policiar melhor a pornografia de vingança e proteger vítimas da prática são bons e necessários, mas a companhia precisa garantir que a transparência esteja na frente.

Por e-mail, o Facebook disse ao Gizmodo que a sua tecnologia de detecção foi treinada para entender melhor como seriam visualmente esses tipos de post de pornografia de vingança, de forma a conseguir identificar se uma imagem íntima ou de nudez foi compartilhada sem o consentimento de alguém. Entretanto, eles não deram nenhum detalhe sobre como isso funcionaria. A inteligência artificial sequer provou que consegue entender as nuances humanas básicas, mas o Facebook parece confiante de que a sua irá entender se um post é de vingança ou não.