Estudo sobre “fake news” descobre que o inimigo da informação somos nós, não os bots
Ao longo do ano passado, “fake news” passou de uma preocupação de nicho que charlatões exploravam por lucro para uma ameaça existencial das grandes à sociedade — ou uma mistura de ambos. Mas nossa compreensão científica de como e por que as histórias falsas se espalham ainda é limitada. Pesquisadores do Media Lab, do MIT, estão mergulhando no assunto para preencher essa lacuna. E, para aqueles que buscam alguém para quem apontar o dedo, temos algumas más notícias.
• Se o resultado da eleição foi diferente do previsto no Facebook, você deve estar numa bolha
• O prefeito de São Paulo não quer que você veja esta imagem da casa dele
Um novo estudo publicado na quinta-feira (8) é o maior já feito sobre a disseminação de notícias falsas online. Muito do trabalho científico que já foi feito para avaliar as fake news e sua propagação por meio de redes sociais focou no estudo de rumores individuais. Existem poucas pesquisas a se apontar que calcularam de forma ampla as diferenças na proliferação de notícias verdadeiras e falsas em diversos tópicos ou que examinem por que as notícias falsas podem se espalhar de maneira diferente das verdadeiras. Soroush Vosoughi e seus colegas analisaram 126 mil cascatas de rumores tuitados por três milhões de pessoas mais de 4,5 milhões de vezes para entender melhor as qualidades que compõem uma notícia efetivamente viral.
Em conversa com o Gizmodo, os pesquisadores enfatizaram que tinham que evitar o termo “fake news” porque ela significava diferentes coisas para diferentes pessoas. Portanto, em nome dos propósitos do estudo, limitaram sua fraseologia a “falsidade” e “histórias falsas”.
Eles buscaram responder duas questões principais: como verdade e falsidade se espalham de maneira diferente e quais fatores de julgamento humano explicam essas diferenças? As respostas não são particularmente revolucionárias, mas em uma época em que especialistas, gigantes da tecnologia e o público estão todos se agitando por aí com afirmações sobre as fake news, é importante ter uma base de fato sobre o que estamos falando.
Os pesquisadores usaram diversos controles, modelos matemáticos estabelecidos e sistemas de abordagem em sua avaliação de um amplo conjunto de dados de cada cascata de rumor que havia se espalhado no Twitter e, depois, havia passado por verificação de fatos, desde 2006, ano de criação da rede social, até 2017.
Deb Roy, uma das coautoras do estudo, nos contou que o Twitter era a rede óbvia de escolha para o estudo porque, diferentemente do Facebook, seus dados são abertos ao público, e o MIT “tem uma relação de vários anos com o Twitter, em que temos acesso elevado a esses dados públicos”. Os autores apontam um estudo separado sobre cascatas de rumores, feito em 2014 que focou no Facebook e usou um conjunto de dados menores, como o único estudo comparável à abordagem deste mais recente.
Os pesquisadores definem uma cascata de rumor no Twitter como “quando um usuário faz uma afirmação sobre um tópico em um tuíte, que pode incluir texto escrito, fotos ou links para artigos online”. Eles escrevem no estudo que, “se um rumor ‘A’ é tuitado por dez pessoas separadamente, mas não retuitado, são dez cascatas de rumor, cada uma com tamanho um. Por outro lado, se um segundo rumor ‘B’ é tuitado de forma independente por duas pessoas e cada um desses tuítes é retuitado 100 vezes, o rumor consiste de duas cascatas, cada uma de tamanho 100”.
Sem entrar muito nas contas e variáveis usadas, mantenha em mente que, em geral, o estudo descobriu que histórias falsas se espalham mais, de forma mais profunda e rápida e mais amplamente do que as histórias verdadeiras.
Seis organizações de verificação de fatos (Snopes, Politifact, Factcheck, Truth or Fiction, Hoax-Slayer e Urban Legends) foram escolhidas para formar a base para determinar se uma história era verdadeira, falsa ou uma mistura dos dois. A amostra de cascatas de rumor foi tirada de investigações sobre as quais todas as seis organizações haviam concordado na veracidade das histórias entre 95% a 98% das vezes. Cada cascata foi, então, quantificada usando quatro categorias para medir sua difusão.
Sem entrar muito nas contas e variáveis usadas, mantenha em mente que, em geral, o estudo descobriu que histórias falsas se espalham mais, de forma mais profunda e rápida e mais amplamente do que as histórias verdadeiras.
Uma área na qual esse estudo difere de outros é na tentativa dos pesquisadores de descobrir quaisquer grandes diferenças na maneira como rumores se espalham entre diferentes categorias de notícias. Política foi a grande vencedora em termos de número de cascatas analisadas (aproximadamente 45 mil) e de velocidade com que viralizava. Mas, em todas as categorias, “falsidade” reinou como rainha da viralização.
Agora, você provavelmente deve estar pensando que os bots são os culpados por espalhar as notícias falsas. Hackers russos desonestos estão empurrando notícias falsas, comentários se tornaram o bicho-papão político de 2018, e, de repente, todo mundo acha que é especialista em bots. Mas a equipe do Media Lab, do MIT, descobriu que os bots não fazem uma diferença significativa no sucesso de viralização de histórias falsas.
Para determinar se uma conta era um bot ou não, os pesquisadores usaram um algoritmo de detecção renomado, o Botometer, anteriormente conhecido como Bot or Not. Parte do apelo do Botometer para Vosoughi, autor principal do estudo, era que ele não fazia um julgamento binário sobre a autenticidade de uma conta, em vez disso dando uma pontuação entre 0 e 1. Se o algoritmo determinasse que havia uma chance de mais de 50% de que uma conta fosse um bot, os pesquisadores a tratavam como um. Comparando as duas categorias de bots e humanos, eles descobriram que as duas compartilhavam falsidades com a mesma frequência.
A pesquisa não está afirmando que bots não são um fator na disseminação de notícias falsas. Eles simplesmente não explicam a diferença entre como notícias falsas e verdadeiras se espalham. “O que vemos é que, quando removemos os bots de nossa análise, a diferença entre como notícias falsas e verdadeiras se espalham permanece”, disse Vosoughi. Ele afirma que, sim, os bots “movem a agulha” um pouco quando são incluídos nos dados, espalhando histórias falsas em vez de verdadeiras um pouco mais do que os humanos fazem, mas a diferença é mínima. E faz sentido: humanos programaram os bots para agir como humanos, o que nos leva para a conclusão dos autores para o motivo pelo qual as histórias falsas se espalham mais do que as verdadeiras: a natureza humana.
Análises de comentários de usuários em notícias descobriram que as histórias falsas espalham medo, nojo e surpreso, enquanto as verdadeiras inspiram ansiedade, tristeza, alegria e confiança. Acima de tudo, “surpresa” foi a maior reação às notícias falsas, o que leva Vosoughi a acreditar que as notícias falsas têm mais a ver com a natureza humana e sua atração por novidade do que qualquer outra coisa.
Roy reconhece que é bem estabelecida, tanto anedoticamente quanto por meio de estudos de comunicação, que as pessoas são mais propensas a compartilhar notícias negativas. Ele aponta para o trabalho de Claude Shannon, pai da teoria da informação, e para suas formulações, que foram resumidas como “informação é surpresa“.
Mas em certo ponto, a ideia de que uma história falsa seja surpreendente para as pessoas pode ser um sinal de esperança. Afinal, para achar uma informação falsa surpreendente, essa pessoa provavelmente já tem o conhecimento que está sendo contradito como base.
Você poderia ver isso como uma indicação de que as pessoas são melhores informadas do que pensamos e de que talvez uma história falsa seja apenas uma gota em um balde. Mas os autores não são tão otimistas. Roy aponta que isso também exige que as histórias falsas se tornem especialmente falsas, porque uma história que contradiz muito do que você sabe está mais propensa a ser surpreendente — e então começa uma corrida armamentista de fake news. Ele acrescenta que o assunto política pode ser especialmente vulnerável a isso, porque as pessoas não têm muita base e conhecimento diretos da verdade. “Você não tem que se conformar à realidade”, diz. “É mais fácil surpreender alguém.”
Quanto a um próximo passo na direção de tornar essa pesquisa em algum tipo de solução executável que reduza a propagação de notícias falsas, Vosoughi sugere que precisaremos fazer mais experimentos com intervenção comportamental. Ele aponta que possíveis pontuações de reputação para usuários e veículos de informação podem ser integradas às interfaces das redes sociais. Essa ideia não é nova e tem feito parte de diversas iniciativas anunciadas pelo Facebook. Iniciativas essas que, até agora, foram muito mal concebidas e parecem irrealistas.
Apontei que o estudo descobriu que elementos estruturais da rede não pareciam ter um papel tão grande na disseminação de notícias falsas. Grandes influenciadores do Twitter foram mais propensos a compartilhar histórias verdadeiras. Histórias falsas tinham chance maior de ser compartilhadas por usuários com números baixos de seguidores e nenhum selo de verificação. Ainda assim, elas se espalhavam mais amplamente e mais rápido. Portanto, se as pessoas não estão prestando atenção nos indicadores de veracidade de uma fonte que já temos, porque indicadores adicionais fariam alguma diferença?
Roy disse compartilhar do meu ceticismo, mas acredita que a exigência da cidade de Nova York de que restaurantes divulguem contagens calóricas em seus cardápios é um exemplo interessante de como pontuações baseadas em reputação podem ter um impacto positivo.
A regulação é, em grande parte, vista como um fracasso em sua tentativa de encorajar os nova-iorquinos a comer de maneira mais saudável. “Algumas pessoas que estão buscando regular sua ingestão de calorias de fato reduziram esse número como resultado dessas informações”, afirmou. “Mas talvez para a surpresa do Comissário de Saúde de Nova York, algumas pessoas na verdade usaram essa informação para aumentar sua ingestão calórica para ter calorias com maior custo-benefício.”
Porém, um aspecto negligenciado do programa é que alguns estudos descobriram que houve um efeito de rede mais amplo, em que restaurantes que exibiam contagens calóricas começaram a incluir itens com menos calorias. Ele acredita que seja possível vermos resultados parecidos com a rotulação de notícias nas redes sociais.
Algumas pessoas que queiram informação vão buscá-la, outras vão preferir chafurdar o lixo, disse Roy, “e isso pode resultar em uma pressão interessante em cima de produtores de conteúdo que se importam com sua reputação”.
Está claro que a pontuação de reputação de empresas tecnológicas e de mídia está caindo aos olhos do público diariamente. Conforme entendemos melhor como as notícias falsas se espalham, veremos se alguém se importa o bastante para fazer algo a respeito.
[Science]