Parece que o Facebook não aprendeu nada nos últimos anos, conforme mostra uma reportagem do New York Times publicada na terça-feira (24). A empresa só começou a dar mais peso a produtores de conteúdo respeitáveis ​​no feed de notícias dias depois da eleição de 2020 e não planeja fazer disso uma medida de longo prazo. Os executivos da equipe de políticas também impediram ou buscaram atenuar as mudanças que limitariam o conteúdo que a empresa definiu como “ruim para o mundo” ou “isca de ódio”, bem como eliminaram um recurso que alertaria os usuários se eles caíssem em boatos.

De acordo com o Times, o CEO Mark Zuckerberg concordou, dias após a eleição, em ajustar o feed de notícias do Facebook para enfatizar a “qualidade do ecossistema de notícias” (NEQ, na sigla em inglês), uma “classificação interna secreta que analisa os veículos de notícias com base em sinais sobre a qualidade de seu jornalismo”, devido à crescente disseminação de informações enganosas por Trump e seus aliados conservadores sobre os resultados da eleição.

Diz a reportagem:

Normalmente, as pontuações NEQ desempenham um papel secundário na determinação do que aparece nos feeds dos usuários. Mas, vários dias depois da eleição, Zuckerberg concordou em aumentar o peso que o algoritmo do Facebook dá às pontuações do NEQ para garantir que notícias confiáveis ​​aparecessem com mais destaque, disseram três pessoas com conhecimento da decisão que não estavam autorizadas a discutir deliberações internas.

A mudança fazia parte dos planos “break glass” (uma espécie de “plano de emergência”) que o Facebook havia passado meses desenvolvendo para o pós-eleição. Isso resultou em um aumento na visibilidade para grandes veículos tradicionais como CNN, The New York Times e NPR, enquanto postagens de páginas hiperpartidárias altamente engajadas, como Breitbart e Occupy Democrats, se tornaram menos visíveis, disseram os funcionários.

O Facebook supostamente estava considerando opções semelhantes para desacelerar o fluxo de desinformação no caso de uma eleição contestada — como um programa piloto para testar algo semelhante a um “disjuntor de viralidade“, que automaticamente pararia de promover postagens explosivamente virais até que verificadores de fatos pudessem analisá-las.

Notícia após notícia enfatizou que o Facebook continuou sendo um vetor enorme para a disseminação de desinformação sobre as eleições nos EUA, em parte porque a empresa estava com medo de desagradar republicanos convencidos de que as empresas de mídia social estavam secretamente censurando suas publicações.

Teorias conspiratórias pró-Trump, alegando que os democratas estavam se preparando para ganhar a eleição por meio de fraude, floresceram com pouca intervenção. Portanto, é bastante conveniente que o Facebook só tenha decidido dar mais peso ao NEQ no feed de notícias quando ficou claro que Trump havia perdido.

A estratégia de emergência não foi ativada nas semanas ou meses anteriores a 3 de novembro, quando a mídia conservadora estava promovendo previsões agressivas de uma eleição fraudada. Os rótulos inúteis da plataforma não conseguiram evitar que as alegações pós-eleitorais de fraude em massa do presidente e personalidades da mídia alinhadas ao Partido Republicano se tornassem virais.

O Facebook também nunca teve um “plano para tornar [essas mudanças no NEQ] permanentes”, disse o chefe da divisão de integridade do Facebook, Guy Rosen, ao Times. Isso apesar de, segundo relatos, os funcionários perguntarem em reuniões da empresa se a empresa poderia simplesmente deixar os pesos NEQ como estavam para melhorar um pouco o feed de notícias.

Impacto nas métricas

De acordo com o Times, o Facebook divulgou internamente os resultados de um teste este mês denominado “P(Ruim para o Mundo)”, no qual mediu a redução do alcance das postagens que os usuários apelidaram de “ruins para o mundo”. Depois que a empresa descobriu que uma abordagem mais rígida reduzia o total de sessões do usuário e também o tempo gasto no site, ela lançou uma versão menos agressiva que não afetou tanto essas métricas. Em outras palavras: o Facebook sabe que ser “ruim para o mundo” na hora de fazer a moderação de conteúdo é bom para os negócios.

Fontes disseram ao jornal que, antes da eleição, executivos da equipe de políticas do Facebook vetaram um recurso de “corrigir registros”, que direcionaria os usuários que se envolveram ou compartilharam boatos para uma página de verificação de fatos. Eles também impediram que um recurso anti-“isca de ódio” fosse habilitado nas páginas do Facebook — optando por limitá-lo apenas aos grupos.

Em ambos os casos, os executivos alegaram que as mudanças poderiam irritar veículos de notícias e políticos conservadores. (Rosen negou ao Times que as decisões foram tomadas por motivos políticos.)

As ameaças de Trump e do partido republicano de punir sites de mídia social por viés liberal já não valem nada, e o Facebook provavelmente mudará com os ventos políticos nos próximos meses. Mas se levarmos em consideração seu histórico, o Facebook continuará fazendo jogo de cena, prometendo controlar o conteúdo tóxico enquanto o encoraja ativamente.

“A questão é: o que eles aprenderam com esta eleição que deve guiar suas políticas no futuro”, disse Vanita Gupta, CEO da Conferência de Liderança sobre Direitos Civis e Humanos, ao Times. “Minha preocupação é que eles reverterão todas essas mudanças, apesar do fato de que as condições que nos levaram até ela ainda estão entre nós.”

Não está claro o quanto o aumento da influência do NEQ nas classificações do feed de notícias afetou o número de vezes que os usuários se conectam ou quanto tempo passam no site. O líder do feed de notícias do Facebook, John Hegeman, disse ao jornal que a empresa estudaria qualquer impacto potencial, embora, como Rosen observou, as mudanças sejam temporárias.