Como quem acompanha o Gizmodo viu por aqui nos últimos dias, o Facebook foi colocado no centro de denúncias graves quanto a suas políticas internas — de novo. Segundo informações e documentos vazados por Frances Haugen, ex-funcionária da rede social, o Facebook tinha a postura de priorizar o lucro em detrimento da segurança — ignorando o impacto da rede social sobre os jovens usuários.
As acusações ganharam um peso ainda maior após uma série de reportagens publicadas pelo Wall Street Journal. Uma delas, divulgada neste domingo (17) mostra que, de acordo com relatórios internos da empresa, a inteligência artificial usada pela rede social era pouco eficaz na tarefa de limitar posts com incitação ao ódio, imagens violentas e outros conteúdos problemáticos.
Segundo a reportagem, há dois anos, o Facebook reduziu o tempo que os revisores humanos gastavam com denúncias de discurso de ódio — e também fez outros ajustes que diminuíram o número de reclamações. Isso, de acordo com o WSJ, fez com que a ferramenta usada para monitorar posts do tipo parecesse mais eficaz do que de fato era.
O Facebook, agora, trabalha em tentar limpar essa imagem.
Em um novo post feito no blog neste domingo (17), a empresa questionou as acusações de que seu algoritmo não consegue combater a incidência de discurso de ódio na plataforma.
Segundo a rede social, a perda da visibilidade dada ao discurso de ódio é mais importante do que a mera existência desse conteúdo. Mais do que deletar um post que viola as políticas internas ou banir usuários, o importante é cortar o alcance desses posts, grupos e pessoas. E, nisso, o Facebook diz ter apresentado avanços consideráveis.
De acordo com o comunicado, assinado por Guy Rosen, vice-presidente de integridade do Facebook, a prevalência (ou seja, o quanto as pessoas são impactadas pelos posts) de conteúdos com discurso de ódio caiu quase 50% nos últimos três trimestres de 2021. Rosen estima que, a cada 10.000 posts visualizados por usuários, cerca de cinco deles têm tom problemático.
“Não queremos ver o ódio em nossa plataforma, e somos transparentes sobre nosso trabalho para removê-lo”, escreveu Rosen. “O que esses documentos demonstram é que nosso trabalho é uma jornada de vários anos. Embora não sejamos perfeitos, nossas equipes trabalham continuamente para desenvolver nossos sistemas, identificar problemas e criar soluções”, conclui.
Que o Facebook de fato trabalha para remover conteúdos, banir usuários e analisar denúncias, disso não há dúvidas. O problema é que, segundo indicam informações vazadas, o esforço empregado parece não ter sido o suficiente — muito menos uniforme para todos os usuários.