Tem coisas que o Facebook já mostrou que simplesmente não consegue fazer direito — manter os dados de usuários em sigilo, restringir anúncios políticos partidários e, como comprovado nesta semana, fazer anúncios em um blog.

Mesmo assim, nós precisamos reconhecer que a gigante tecnológica de bilhões de dólares aperfeiçoou a arte de divulgar coisas importantes sobre a empresa e suas redes com um ótimo timing, no meio de grandes eventos políticos — e acabar desaparecendo do noticiário por causa disso. A aprovação do impeachment de Donald Trump não foi exceção.

Em um e-mail ao Gizmodo, um porta-voz do Facebook confirmou que em 19 de dezembro — um dia após Donald Trump se tornar o terceiro presidente da história dos EUA a ter um impeachment aprovado, desta vez com uma votação tarde da noite na Câmara dos Representantes –, a empresa atualizou pela última vez suas regras e padrões de conduta sobre discurso de ódio. E foi uma grande mudança.

Aqui estão algumas das “comparações desumanas” que os usuários do Facebook não podem mais publicar, de acordo com a atualização:

– Pessoas negras e macacos ou criaturas semelhantes a macacos.

– Negros e equipamentos agrícolas.

– Povo judeu e ratos.

– Muçulmanos e porcos.

– Pessoa muçulmana e relações sexuais com cabras ou porcos.

– Povo mexicano e criaturas semelhantes a vermes.

– Mulheres como objetos domésticos ou referindo-se a mulheres como propriedades ou “objetos”.

– Transgêneros ou pessoas não binárias com o pronome “it” ( de gênero neutro, usado para coisas).

As “declarações que negam a existência” desse tipo de grupos marginalizados também receberam uma proibição geral, o que significa que declarações como “pessoas trans não existem” também podem ser derrubadas sob essas novas diretrizes. Naturalmente, todas essas regras se aplicam a todo o conteúdo — e não apenas a texto –, significando que todos esses memes irritantes também seriam responsabilizados.

Como em todos os padrões da comunidade da empresa, as consequências de publicar esses tipos de coisas, no papel, variam de leve a grave:

As consequências da violação dos Padrões da Comunidade variam de acordo com a gravidade e com o histórico do usuário na plataforma. Por exemplo, podemos notificar alguém por uma primeira violação, mas se a pessoa persistir na violação de nossas políticas, podemos restringir sua possibilidade de publicar no Facebook ou mesmo desativar seu perfil. Também podemos notificar as autoridades quando julgarmos haver um risco real de danos físicos ou ameaça direta à segurança pública.

E, novamente, como no caso dos padrões do Facebook, é provável que eles tenham sido considerados discurso de ódio de antemão, e essa é uma maneira de facilitar a tarefa impossível de moderar um dilúvio de conteúdo — especialmente porque comparar uma raça com um animal em particular significa algo extremamente diferente dependendo da raça. (Além disso, talvez seja bom parar de generalizar sobre raças no Facebook e em qualquer outro lugar.)

Chamar a atenção para expressões como as acima descritas mostra exatamente com o que as pessoas estavam se saindo — ou tentando se safar — diante da autoproclamada proeza de inteligência artificial do Facebook em impedir exatamente isso.

Em novembro, por exemplo, a empresa dizia que 7 milhões de peças tinham sido sinalizadas por sua IA sob suspeita discurso de ódio. Antes, ela já havia ventilado a ideia de formar uma coalizão de moderadores específica dedicada à tarefa.

Essas não foram as únicas atualizações que passaram batidas. De fato, segundo o porta-voz do Facebook, todas as mudanças nos padrões da comunidade da empresa de dezembro ocorreram quando o impeachment estava dominando a atenção de todos.

E apesar de algumas delas — como a proibição geral da empresa de interferência do Censo — terem chegado aos noticiários, proibições de transmissões ao vivo de punições capitais e de zombarias com sobreviventes de abuso sexual misteriosamente não foram comentadas.

Na ausência de um feed RSS ou qualquer tipo de sistema de notificação na página de atualizações dos Padrões da Comunidade, é provável que essas alterações tenham sido varridas para baixo do tapete sem que quase ninguém notasse.

O Facebook se recusou a comentar se essas políticas foram divulgadas tanto quanto o anúncio do Censo — ou mesmo se foram divulgadas ou não.

Além das atualizações do discurso de ódio, a empresa fez outras oito mudanças nos padrões da comunidade no meio de uma das maiores histórias do noticiário político dos últimos anos.

  • As políticas de “Violência e incitação” foram expandidas para proibir “desinformação que contribua para o risco de violência iminente ou dano físico” (em vez de apenas contribuir imediatamente para esse dano).
  • Os padrões de “Promoção e divulgação de crimes” foram expandidos para proibir a fraude do censo, em vez de apenas a fraude eleitoral.
  • Os padrões de “Fraude e dolo” se expandiram, agora proibindo os usuários de se envolverem, promoverem ou facilitarem qualquer coisa relacionada a “documentos falsos ou manipulados”, como cupons falsos ou prescrições médicas. Eles fizeram o mesmo com “manipulação de apostas”, “campanhas falsas de captação de recursos” e “esquemas de alívio da dívida ou de reparo do crédito”. Para finalizar, o recrutamento de uma força de trabalho para executar esses golpes também foi banido.
  • As políticas de “Exploração sexual de adultos” foram expandidas para incluir “despimento forçado”, além do conteúdo já proibido que envolve “toque ou aperto sexual não consensual, necrofilia ou bestialidade”. Zombar das vítimas de qualquer uma dessas categorias — ou admitir sua própria participação — é proibido sob o novo conjunto de regras.
    Embora o compartilhamento de pornografia de vingança já violasse os padrões anteriores, esta atualização acrescenta que ameaçar compartilhar e “declarar uma intenção de compartilhar” são violações, assim como “oferecer” fotos desse tipo ou solicitá-las. Também (finalmente) banido: vídeos que mostram por baixo de saias.
  • As seções da categoria “Exploração humana” que lidam com cidadãos privados foram alteradas para incluir “figuras menores de idade tornadas públicas involuntariamente”.
  • As políticas sobre “Conteúdo violento e gráfico” agora proíbem transmissões ao vivo ou imagens de “punição capital”.
  • A política para conteúdo “cruel e insensível” elaborou uma proibição do “sadismo em relação aos animais”:

Imagens que mostram animais reais que estão visivelmente passando por estas situações e sendo ridicularizados, motivo de piada ou contêm comentários sádicos para qualquer um dos seguintes itens (exceto encenações de lutas entre animais ou registros de vida selvagem):

– morte prematura

– lesão física grave (incluindo mutilação)

– violência física de um ser humano

  • Em uma expansão sombria das políticas de “Perfil memorial”, a empresa acrescentou que os usuários do Facebook que morrem por suicídio podem ter parentes vivos pedindo que fotos da arma usada ou qualquer conteúdo “relacionado” à morte sejam removidas da foto do perfil, foto da capa e postagens recentes na linha do tempo. Membros da família de usuários assassinados do Facebook também podem ter fotos do agressor (condenado ou alegado).
    Caso você esteja se perguntando:

Para as vítimas de assassinato, também removeremos o condenado ou suposto assassino do perfil do falecido, caso ele seja referenciado no status de relacionamento ou entre os amigos.

Vale a pena notar que, em geral, a empresa não é particularmente tímida em divulgar atualizações de padrões da comunidade, chegando a publicar um relatório semirregular abordando como eles estão lidando com atualizações como essas e como elas vêm sendo aplicadas.

Mas atualizações como essas — que não apenas mostram os buracos que estão sendo constantemente perfurados nesses sistemas automatizados, mas também refletem alguns dos piores lados da base de usuários norte-americanos, com quase 250 milhões de usuários — quase sempre aparecem discretamente, na calada da noite ou na sombra de grandes eventos.