Documentos internos revelam que Facebook tem dificuldades para conter crise de imagem

Parece que o plano do Facebook para lutar contra a onda de notícias negativas é apenas... continuar fazendo o que sempre fez.
Facebook. Imagem: Olivier Douliery (Getty Images)
Imagem: Olivier Douliery (Getty Images)

Apesar do que os preços das ações pareçam dizer, o Facebook é uma empresa com um problema sério de imagem. No melhor dos cenários, o Facebook é considerado uma empresa que impiedosamente coleta os dados dos usuários para que possa vencer os concorrentes de formas hostis. Na pior das hipóteses, é considerado uma empresa que ameaça a própria democracia. E, enquanto, a crise do Facebook continua ganhando corpo, funcionários estão lutando para descobrir como reconquistar o público — e chegando a nenhuma solução.

Pelo menos, é o que é sugerido por uma pesquisa interna feita em setembro do ano passado, que tentou medir a “legitimidade aparente” do Facebook aos olhos do público e outras partes interessadas. O documento completo questionou uma série de repórteres, usuários regulares e (curiosamente) atores sobre suas percepções gerais do Facebook.

Os resultados foram praticamente o que você esperava: a confiança na empresa era baixa, a confusão sobre os processos de moderação de conteúdo era alta e ninguém acreditava que o Facebook fosse motivado por qualquer coisa além de dinheiro. A abordagem planejada consertar essa crise de relações públicas? “Construa confiança por meio de experiências com produtos”, consiga mais pessoas negras na equipe. E nada mais.

“Os usuários não confiam que faremos a coisa certa porque acreditam que priorizamos receita e crescimento em detrimento da segurança e da sociedade”, explicou um membro não identificado de uma “Equipe de Legitimidade” interna do Facebook, cuja missão declarada é, bem, aumentar a legitimidade da empresa aos olhos do público.

Embora a pesquisa tenha acontecido há mais de um ano, ouvimos essa mesma narrativa sendo repetida continuamente pela fonte desses documentos — Frances Haugen — apenas neste mês. O CEO Mark Zuckerberg, por sua vez, recusou a ideia, apesar de todas as evidências apontando para tal, e a empresa supostamente ponderar uma mudança completa de nome.

“Como os usuários não confiam no FB devido a incidentes anteriores, eles não acreditam que temos boas intenções ou motivações quando se trata de esforços para manter a integridade”, diz o relatório. “Os usuários não consideram nosso sistema de regulação de conteúdo legítimo porque não confiam em nossas motivações.”

Ignorando o fato de que o Facebook é uma empresa — e as empresas geralmente existem para obter lucro — , o relatório prossegue observando que os usuários “consideram os sistemas [do Facebook] ineficazes e tendenciosos para grupos minoritários”, citando as experiências de usuários do Facebook que são LGBTQIA+, pessoas negras e outros grupos marginalizados. O relatório afirma que esses usuários sentem que “o FB está censurando ou fiscalizando grupos minoritários”, e descreveu o banimento do site “por falar às suas comunidades sobre suas experiências”.

Embora Zuckerberg e sua turma tenham supostamente passado um longo tempo ignorando o fato de que seus sistemas de detecção de discurso de ódio tendem a visar (injustamente) grupos marginalizados, a empresa percebeu que talvez devesse fazer algo sobre isso. Em dezembro de 2020, a empresa iniciou um esforço interno para revisar os sistemas de moderação envolvidos, mas este relatório (com razão!) reconhece que isso pode não ser suficiente.

“Muitos participantes reconheceram que grande parte dessa aplicação é feita por algoritmos”, diz o relatório. Ao mesmo tempo, eles “acreditam que as pessoas que criaram os algoritmos são, na melhor das hipóteses, ingênuas e, na pior, racistas”.

O Facebook ainda não se pronunciou sobre o relatório interno.

A inteligência artificial — e os algoritmos que executam grande parte dos esforços de moderação do Facebook — são frequentemente desenvolvidos por pessoas brancas , com preconceitos brancos. O relatório recomenda trazer mais membros de “grupos minoritários” para a mesa ao construir seus algoritmos para mitigar o preconceito embutido, junto com “[conduzir] auditorias de ações” tomadas em conteúdos feitos por pessoas negras. Duas ideias muito boas. Infelizmente, tudo vai por água abaixo a partir daqui.

Assine a newsletter do Giz Brasil

A maioria das outras sugestões para restaurar a confiança na empresa possui poucos detalhes. Recomendações como “continuar a investir na restauração da confiança na marca FB” e “construir confiança garantindo que o que enviamos mostra cuidado”, por exemplo, são apenas um devaneio. Quando os usuários pesquisados ​​disseram que uma empresa do tamanho e escala gigantesca do Facebook deveria investir mais de seus recursos na moderação, o relatório descartou a ideia, focando em quão difícil é a moderação de conteúdo.

“A narrativa de que a regulamentação de conteúdo é difícil e complexa pode não agradar aos usuários”, diz o relatório. “Em vez disso, devemos entender se focar em destacar o que estamos fazendo para resolver os problemas seria mais eficaz.”

Como? Com as mesmas táticas de relações públicas estranhamente agressivas adotadas pela equipe de atendimento ao público do Facebook? Com as mesmas postagens do blog Buzzwordy e a política enganosa da empresa? Não sei, e o relatório não diz. Mas, com certeza, parece que o plano do Facebook para lutar contra toda essa onda de notícias negativas é apenas… continuar fazendo o que sempre fez.

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas