Facebook poderia ter evitado 10,1 bilhões de visualizações em notícias falsas, aponta estudo
Se o Facebook tivesse agido com antecedência para restringir conteúdos falsos e enganosos que poderiam interferir nas eleições dos EUA de 2020, a rede poderia ter limitado o alcance deles em cerca de 10 bilhões de visualizações, de acordo com um relatório do grupo de defesa de direitos Avaaz.
Os pesquisadores da Avaaz identificaram as 100 páginas com melhor desempenho no Facebook que compartilhavam conteúdo classificado como desinformativo pelos próprios verificadores de fatos parceiros da empresa, incluindo pelo menos duas notícias falsas em um período de 90 dias, de acordo com a revista Time. Essas páginas receberam significativamente mais engajamento do que outras ao longo de junho, julho e agosto de 2020, em meio à corrida eleitoral, a pandemia e os protestos contra o racismo policial desencadeados pela morte brutal de George Floyd.
A Avaaz relata que “se o Facebook tivesse lidado com a desinformação de forma mais agressiva desde o início da pandemia em março de 2020 (em vez de esperar até outubro), a plataforma poderia ter interrompido um número estimado de 10,1 bilhões de visualizações de conteúdo nas páginas que apresentaram melhor desempenho e repetidamente compartilhavam desinformação antes do dia de eleição”. Isso permitiu que algumas delas, com uma má reputação, alcançassem entre julho e agosto, no auge dos protestos Black Lives Matter, números de interações próximos aos de grandes canais de TV com muitos seguidores, como a CNN.
Enquanto os pesquisadores se esforçaram para verificar se a desinformação teve como público-alvo indivíduos de praticamente todas as ideologias no Facebook, ficou claro que a maioria visou conservadores, o que reforça pesquisas anteriores de que a desinformação de extrema direita se espalhou mais por toda a plataforma em comparação com outros tipos de conteúdo:
[…] É importante notar que as páginas que identificamos abrangeram o espectro político, desde páginas de extrema direita até páginas libertárias e de extrema esquerda. Das 100 páginas, 60 inclinavam-se para a direita; 32 inclinavam-se para a esquerda e oito não tinham filiação política clara. Aprofundando os dados, pudemos analisar o detalhamento das postagens de desinformação compartilhadas por essas páginas e descobrimos que 61% eram de páginas com tendência à direita. Esse conteúdo de desinformação de páginas inclinadas à direita também garantiu a maioria das visualizações sobre a desinformação que analisamos — garantindo 62% do total de interações nesse tipo de conteúdo.
O Facebook fez um péssimo trabalho de moderação de conteúdo que sabia ser falso ou enganoso. A Avaaz descobriu que as 100 principais matérias que realmente foram “desmascaradas por verificadores de fatos trabalhando em parceria com o Facebook” ainda acumularam 162 milhões de visualizações, “mostrando uma taxa muito maior de envolvimento em comparação com o ano anterior, apesar de a rede social prometer agir de forma eficaz contra a desinformação identificada por seus verificadores de fatos independentes”.
O relatório argumenta que mesmo quando o Facebook identificou informações incorretas, seus sistemas automatizados falharam regularmente em detectar contas falsas que postavam o mesmo material. Antes do segundo turno das eleições na Geórgia, estado do sudeste dos EUA, a Avaaz descobriu que mais de 100 anúncios políticos contendo alegações desmascaradas puderam ser vistos 52 milhões de vezes. Quase metade disto veio de candidatos ao Senado, que, como outros candidatos políticos, estão isentos das regras do Facebook sobre desinformação em anúncios e, portanto, podem mentir livremente neles.
“O mais assustador é que isso é apenas para as 100 páginas principais — este não é todo o universo da desinformação”, disse Fadi Quran, diretor de campanha da Avaaz e um dos autores do relatório, à Time. “Isso nem inclui os grupos do Facebook, então o número provavelmente é muito maior. Fizemos uma estimativa muito, muito conservadora neste caso.”
A Avaaz também descobriu que o Facebook fez pouco para interferir no crescimento explosivo de páginas e grupos que pediam violência durante e após as eleições de 2020, que acabaram desempenhando um papel significativo nos tumultos pró-Donald Trump no Capitólio em 6 de janeiro, onde cinco pessoas morreram.
De acordo com as informações do relatório, foi identificado um subconjunto de páginas e grupos que “adotaram termos ou expressões em seus nomes e/ou seções comumente associadas a movimentos extremistas violentos nos EUA, como a QAnon, Three Percenters, Oathkeepers, Boogaloo e variantes como o Big Igloo”. Nessa lista, eles adicionaram páginas e grupos que “glorificam a violência ou que clamam, elogiam ou minimizam a morte ou mutilação de indivíduos por causa de suas crenças políticas, etnicidade, orientação sexual, bem como imagens comumente associadas a agentes extremistas”.
As 267 páginas e grupos resultantes tiveram uma sequência combinada de cerca de 32 milhões de visualizações. Mais de dois terços (68,7%) deles tinham nomes que faziam referência à teoria da conspiração QAnon, ao movimento antigovernamental vagamente organizado e popular na extrema direita chamado Boogaloo ou a várias outras milícias. Aproximadamente 118 dessas páginas “ainda estavam ativas na plataforma e tinham quase 27 milhões de seguidores [em 24 de fevereiro], das quais 59 são Boogaloo, QAnon ou alinhados à milícia”.
O Facebook, que há muito insiste estar enfrentando o desafio de manter sua plataforma livre de discursos de ódio e apelos à violência, disse que o relatório não é preciso. O porta-voz da empresa, Andy Stone, disse ao site Mother Jones que o “relatório distorce o trabalho sério que temos feito para combater o extremismo violento e a desinformação em nossa plataforma” e se baseia em “uma metodologia falha para fazer as pessoas pensarem que só porque uma página compartilha um pedaço de conteúdo que foi conferido por verificadores de fatos, todo o conteúdo dessa página é problemático. ”
De acordo com a Associated Press, o Facebook disse nesta segunda-feira (22) que já havia retirado quatro e removeria outras 14 das 118 páginas e grupos identificados pela Avaaz, dizendo que “de fato violaram” as políticas da empresa.
Obrigar o Facebook a fazer mais pode não ser tão fácil assim na prática. As recomendações da Avaaz no relatório incluem uma regulamentação que exige das empresas de mídia social a emissão de “relatórios abrangentes sobre desinformação, as medidas tomadas contra isso e o design e operação de seus algoritmos de curadoria, como forma de retirar conteúdo odioso e enganoso do topo dos feeds das pessoas”.
Também foi exigido que as empresas notifiquem os usuários quando houver visualização ou interação com informações incorretas. Cada uma dessas soluções levanta questões óbvias em relação à Primeira Emenda americana (que garante, entre outras coisas, o direito à liberdade de expressão), visto que exigiriam que o governo definisse certas categorias de discurso e obrigaria as empresas privadas a agir com base nisso.
Outra solução proposta pela Avaaz é reescrever a seção 230 da Communications Decency Act, a lei que protege os sites da maior responsabilidade por conteúdo gerado por usuários e é um dos alicerces da web moderna. O grupo recomendou que a lei fosse alterada para “eliminar quaisquer barreiras a regulamentações que exijam que as plataformas lidem com a desinformação”, mas não especificou quais seriam estas mudanças.
Embora a pressão tenha crescido em ambos os lados políticos para alterar da Seção 230 — com os democratas do Congresso geralmente citando desinformação e discurso de ódio, e seus colegas republicanos citando teorias da conspiração infundadas sob o viés liberal das empresas –, especialistas em direito digital geralmente rejeitam essas iniciativas, dizendo que elas podem ter consequências não intencionais enormes por toda a Internet. A Avaaz reconheceu isso, e sua equipe escreveu no relatório que a “administração de Joe Biden não deve buscar a revogação total da Seção 230”.