As maiores plataformas de tecnologia do mundo ainda precisam provar que podem de maneira eficaz e rápida moderar suas plataformas infernais, e o Instagram não é exceção.

• Instagram vai ganhar mais “selinhos azuis” de verificação e reforçará segurança

Nesta sexta-feira (21), o Business Insider afirmou que o IGTV — novo serviço de vídeo separado do Instagram — recomendava vídeos perturbadores para os usuários, “incluindo o que parecia ser exploração infantil e mutilação genital”. O Business Insider noticia que monitorou as seções de recomendação do aplicativo por quase três semanas, usando tanto as contas dos jornalistas quanto uma conta criada como alguém de 13 anos sem histórico de atividade.

Quando o Instagram lançou o IGTV em junho, ele descreveu a plataforma como “um novo app para assistir a vídeos verticais, longos, dos seus criadores favoritos do Instagram”. De acordo com o Business Insider, o algoritmo do IGTV recomendou um vídeo de uma jovem garota em um banheiro que estava prestes a tirar a camisa antes de o vídeo acabar. O vídeo, intitulado “Hot Girl Follow Me”, foi supostamente sugerido tanto para a conta de jornalista quanto para a conta falsa que seria de uma criança. O veículo de imprensa informa que a conta que postou o vídeo também publicou “Patli Kar follow me guys plzz”, que foi recomendado para a conta da criança de mentira e supostamente mostrava uma jovem “expondo sua barriga e fazendo pose para a câmera”.

Os vídeos teriam sido publicado por diferentes contas e permaneceram ativos no app por cinco dias, sendo removidos apenas quando o Business Insider entrou em contato com o Instagram. Segundo o site de notícias, os vídeos haviam acumulado mais de um milhão de visualizações antes do Instagram retirá-los da plataforma. O Business Insider noticia que as contas não foram desativadas porque a política de “tolerância zero” com vídeos de abuso infantil se aplicava ao conteúdo, e não às contas.

O IGTV também teria recomendado um vídeo de um pênis sendo mutilado por uma serra motorizada para a conta da criança falsa — esse vídeo também foi removido depois do contato do Business Insider com a empresa. A conta, por outro lado, não teria sido excluída. Um porta-voz do Instagram disse ao Gizmodo que eles haviam removido todo o conteúdo do IGTV que o Business Insider relatou a eles. Eles também acrescentaram que uma das contas havia sido desativada por violar suas diretrizes de comunidade.

“Importamo-nos profundamente em manter todo o Instagram — incluindo o IGTV — um lugar seguro para os jovens se aproximarem das pessoas e dos interesses com que eles se importa”, afirmou o porta-voz. “Temos diretrizes de comunidade para proteger todos usando o Instagram e temos tolerância zero a qualquer um compartilhando imagens explícitas ou imagens de abuso infantil.”

O porta-voz disse que a empresa trabalha com as autoridades e com o Comando de Exploração Infantil e Proteção Online (CEOP, na sigla em inglês) para lidar com o problema.

Ele acrescentou que o Instagram tem uma “equipe treinada de revisores que trabalham 24 horas por dia, sete dias por semana, para remover qualquer coisa que viole nossos termos”. Eles também disseram que tanto o Instagram quanto o Facebook (que é dono do primeiro) estão amplificando suas equipes de segurança — o Facebook se comprometeu, no ano passado, a duplicar essa equipe para 20 mil até o fim de 2018.

Existem, é claro, uma série de esforços técnicos que plataformas como Facebook e Instagram aplicam para tentar enfrentar problemas como abuso infantil em suas plataformas, incluindo algoritmos que automaticamente escaneiam e removem fotos de exploração infantil. Porém, como já vimos diversas vezes, mesmo milhares de humanos e alguns dos algoritmos mais sofisticados não são o suficiente para peneirar o fluxo interminável de conteúdo publicado nas plataformas. O que está cada vez mais claro é que a linha de defesa mais eficiente não deveria ser um repórter enviando um e-mail para a assessoria de imprensa da empresa.

[Business Insider]

Imagem do topo: AP