Pesquisadores do Facebook disseram que foram ignorados por apontar racismo em algoritmo do Instagram

Durante um estudo realizado em meados de 2019, uma equipe de funcionários do Facebook descobriu que as regras propostas para o sistema de remoção automática de contas do Instagram marcaram e proibiram de forma desproporcional usuários negros. Eles alegam terem sido ignorados.
Ícones de Facebook, Instagram, WhatsApp e outras redes sociais na tela de um celular
Crédito: Chandan Khanna/Getty

Durante um estudo realizado em meados de 2019, uma equipe de funcionários do Facebook descobriu que as regras propostas para o sistema de remoção automática de contas do Instagram marcaram e proibiram de forma desproporcional usuários negros.

Quando a equipe abordou o CEO Mark Zuckerberg e o escalão superior da empresa com estas informações, eles foram supostamente ignorados e foi solicitado que interrompessem qualquer pesquisa adicional sobre preconceitos raciais nas ferramentas de moderação da empresa, como mostra uma reportagem da NBC News desta quinta-feira (23).

Isso de acordo com oito funcionários e ex-funcionários do Facebook que falaram com o site na condição de anonimato. Sob as regras do algoritmo, os usuários negros do Instagram tinham cerca de 50% mais chances que os usuários brancos de terem suas contas automaticamente desativadas por infrações dos termos de serviços, como publicar discurso de ódio ou fazer bullying.

A questão surgiu de uma tentativa do Facebook, proprietário do Instagram, de manter neutros seus sistemas automatizados de moderação.

A política de discursos de ódio da empresa aborda comentários depreciativos contra grupos privilegiados (isto é, pessoas brancas e homens) com o mesmo escrutínio que comentários depreciativos contra grupos marginalizados (isto é, pessoas negras e mulheres).

Na prática, isto significou que as ferramentas proativas de moderação de conteúdo da empresa detectaram o discurso de ódio dirigido aos brancos a um ritmo muito mais elevado do que o discurso de ódio dirigido aos negros, em grande parte porque o algoritmo sinalizava comentários amplamente considerados inócuos. Por exemplo, a frase “os brancos são lixo” não é tão ofensiva como a frase “os negros são lixo” porque a segunda contribui para naturalizar e perpetuar uma desigualdade que foi construída ao longo de séculos. Há um problema de racismo estrutural que, conforme é explicado nesta matéria do UOL, ainda que as leis garantam a igualdade, o racismo é um processo histórico que modela a sociedade.

Para entender este raciocínio, basta pensar que nos EUA, como no Brasil, após a abolição da escravidão os negros não tinham onde trabalhar e, em muitos casos, tiveram direitos civis tolhidos, como votar. Após anos, este processo ainda vigora nas mais diferentes esferas.

“O mundo trata os negros de maneira diferente dos brancos”, disse um funcionário do Facebook à NBC. “Se estamos tratando todos da mesma maneira, já estamos fazendo escolhas no lado errado da história.”

Outro funcionário que postou sobre a pesquisa em um fórum interno disse que as descobertas indicavam que as ferramentas automatizadas do Facebook “defendem de forma desproporcional os homens brancos”. De acordo com a reportagem:

De acordo com um gráfico publicado internamente em julho de 2019 e compartilhado com a NBC News, o Facebook derrubou proativamente uma proporção maior de discurso de ódio contra os brancos do que foi relatado pelos usuários, indicando que os usuários não acharam ofensivo o suficiente para relatar, mas o Facebook o apagou de qualquer forma. Em contraste, as mesmas ferramentas derrubaram uma proporção menor de discursos de ódio contra grupos marginalizados, incluindo usuários negros, judeus e transgêneros do que foi reportado pelos usuários, indicando que estes ataques foram considerados ofensivos, mas as ferramentas automatizadas do Facebook não os detectavam.

Estas regras propostas nunca viram a luz do dia, já que o Instagram supostamente acabou implementando uma versão revisada desta ferramenta de moderação automatizada. Entretanto, os funcionários disseram à NBC que foram impedidos de testá-la para preconceitos raciais depois que ela foi ajustada.

Em resposta ao relatório, o Facebook alegou que a metodologia original dos pesquisadores apresentava falhas, embora a empresa não negasse ter emitido uma moratória sobre a investigação de possíveis preconceitos raciais em suas ferramentas de moderação. O vice-presidente de crescimento e análise do Facebook citou preocupações éticas e metodológicas para a decisão em uma entrevista à NBC.

A empresa acrescentou que está atualmente pesquisando melhores maneiras de testar o preconceito racial em seus produtos, o que se encaixa no anúncio feito no início desta semana pelo Facebook de que está reunindo novas equipes para estudar os potenciais impactos raciais em suas plataformas.

“Estamos investigando ativamente como medir e analisar os produtos de forma responsável e em parceria com outras empresas”, disse Carolyn Glanville, porta-voz do Facebook, em uma declaração a vários veículos de comunicação.

Em sua entrevista à NBC, Schultz acrescentou que o preconceito racial nas plataformas do Facebook é um “tópico muito carregado”, mas que a empresa “aumentou maciçamente o investimento” para investigar o preconceito algorítmico e compreender seus efeitos na moderação do discurso do ódio.

[NBC]

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas