A crise de identidade do Facebook vai demorar para ser resolvida. Admitir de uma vez por todas que é uma empresa de mídia é apenas um de seus problemas. O outro tem a ver justamente com o conteúdo que é gerado por usuários e que circula nas redes sociais: todas as semanas, a empresa revisa mais de 6,5 milhões de relatos de contas falsas e precisa lidar com a moderação de publicações.

• Facebook vai acrescentar três mil pessoas para vigiar conteúdos de assassinato e suicídio
• Facebook admite em relatório que pode ser utilizado para influenciar decisões políticas

O jornal The Guardian obteve acesso a mais de 100 documentos internos da empresa, incluindo manuais, planilhas e listagens de procedimentos sobre como lidar com o que pode ou não ser publicado, incluindo casos de violência, discurso de ódio, terrorismo, racismo, pornografia, suicídio e automutilação.

Os moderadores – hoje são 4,5 mil funcionários, e o Facebook anunciou que irá contratar mais três mil até o ano que vem – enfrentam grandes volumes de trabalho e precisam avaliar um conteúdo “em apenas 10 segundos”. Outro problema enfrentado por eles é a falta de clareza sobre as diretrizes, que deixam muitas áreas cinzentas sobre o que pode ou não aparecer no feed das pessoas – especialmente as que envolvem conteúdos sexuais.

Do Guardian:

Comentários como “Alguém atire em Trump” devem ser deletados, porque como chefe de Estado ele está em uma categoria protegida. Mas pode ser permitido dizer: “Para quebrar o pescoço de uma vagabunda, aplique pressão no meio da garganta”, ou “foda-se e morra”, porque não são considerados ameaças críveis.

Vídeos de mortes violentas, enquanto forem marcadas como perturbadores, nem sempre precisam ser apagadas porque podem ajudar a criar conscientização sobre problemas como doenças mentais.

Algumas fotos de violência física não-sexual e bullying com crianças não precisam ser apagadas ou “atuadas” a menos que existe um elemento sádico ou celebrativo.

Fotos de abusos de animais podem ser compartilhados, apenas imagens extremamente inquietadoras devem ser mercadas como “perturbadoras”.

Toda arte “feita a mão” de nudez e atividade sexual está permitida, mas arte “produzida digitalmente” desse gênero deve ser apagada.

Vídeos de abortos são permitidos, desde que não exista nudez.

Facebook permitirá pessoas a transmitirem tentativas de automutilação porque “não quer censurar ou punir pessoas em dificuldades”.

Qualquer pessoa com mais de 100 mil seguidores na plataforma de mídias sociais é designada como uma figura pública – o que lhes nega as proteções completas dadas a indivíduos privados.

O Facebook reconhece que “as pessoas utilizam linguagem violenta para expressar frustrações na internet” e sentem que “estão seguras para fazer isso” na rede social. Segundo representantes da companhia, o intuito do código é censurar o menos possível e permitir que conteúdo que possa servir de alerta circule. A chefe de gestão de políticas globais do Facebook, Monika Bickert, disse que o serviço tem quase dois bilhões de usuários e que foi difícil chegar em um consenso sobre o que deveria ser permitido.

Para a rede social, parte do conteúdo deve ser menos propagado, mas não deletado automaticamente, já que pode servir como um alerta de conscientização poderoso e até mesmo para ajudar que “crianças possam ser identificadas e resgatadas, mas adicionando proteções para blindar a audiência”, se referindo aos avisos de conteúdos perturbadores.

No ano passado, o Facebook enfrentou duras críticas por ter censurado a icônica foto da Guerra do Vietnã com a menina nua queimada por napalm. Na ocasião, a imagem – do fotógrafo Nick Ut, da Associated Press, e vencedora do prêmio Pulitzer – foi removida da página da rede social de um jornal norueguês. O caso fez com que muitos noruegueses republicassem a foto imediatamente. Por isso, as diretrizes que tratam de nudez mudaram e agora permite “excessões com relevância noticiosa”. A linha limite é “nudez de crianças no contexto do Holocausto”.

O Facebook disse ao Guardian que estava utilizando algoritmos para identificar conteúdos antes que fosse publicado, mas agora “quer que as pessoas possam discutir eventos globais e atuais e por isso o contexto em que uma imagem violenta é compartilhada às vezes importa”.

Apesar de Mark Zuckerberg ter anunciado um plano para a contratação de mais moderadores para evitar que conteúdos de assassinato e suicídio sejam propagados rapidamente no Facebook, ele não revelou detalhes concretos em relação ao status de contratação, treinamento e suporte aos membros da equipe. Assistir a assassinatos ou suicídios por meses ou anos a fio pode causar o desenvolvimento de problemas psicológicos nos moderadores. Reportagens ao longo dos últimos anos revelaram que muitas das maiores empresas do mundo terceirizam suas equipes de moderação, deixando para trabalhadores estrangeiros mal remunerados.