O algoritmo do YouTube é responsável por muitas “tocas de coelho” de visualização de vídeos (efeito que faz as pessoas ficarem presas em um ciclo infinito de consumo de conteúdo na plataforma) – algo que os críticos apontam como um megafone digital eficaz para espalhar teorias conspiratórias questionáveis.

Em janeiro de 2019, no entanto, o YouTube anunciou que começaria a combater “conteúdos que passam dos limites” em suas recomendações. Bem, um novo estudo sugere que os esforços da empresa realmente renderam alguns frutos. De acordo com a pesquisa, agora as teorias da conspiração têm 40% menos chances de aparecer em suas recomendações do que antes do YouTube intervir.



A essência do estudo é que os pesquisadores da Berkley examinaram 8 milhões de recomendações ao longo de um período de 15 meses. Para avaliar a eficácia dos esforços do YouTube, os pesquisadores treinaram um algoritmo para determinar se um vídeo continha teorias da conspiração com base em sua descrição, comentários e transcrições. Os resultados foram variados.

No lado positivo, os pesquisadores descobriram que o YouTube foi bem-sucedido em remover vídeos com teorias de que o governo dos EUA perpetrou os ataques terroristas de 11 de setembro e que a Terra é plana – dois tópicos que o YouTube identificou como alvos quando anunciou inicialmente seus planos de combater teorias de conspiração. O estudo também constatou que, no período de junho a dezembro de 2019, o percentual de recomendações de teorias da conspiração caiu primeiro para 50% e, em seguida, para uma baixa histórica de 70%.

No entanto, os pesquisadores também descobriram que esses números, embora consistentes com seus próprios dados, não representavam necessariamente a popularidade do vídeo de origem. Ao se ajustar a isso, eles descobriram que as recomendações conspiratórias aumentaram do ponto mais baixo em maio de 2019 e agora são apenas 40% menos comuns do que antes.

Além disso, embora o YouTube tenha conseguido conter algumas teorias da conspiração, outras ainda são bastante desenfreadas – incluindo aquelas sobre alienígenas construindo pirâmides e, mais preocupante ainda, a negação das mudanças climáticas. Os pesquisadores disseram ao New York Times que isso indica que o YouTube fez uma escolha para saber que tipo de desinformação será removida – aquelas que recebem muita atenção negativa da mídia contra as que serão permitidas.

Outro problema aqui é que, embora o estudo mostre uma redução acentuada nas recomendações conspiratórias, ele realmente não lança mais luz sobre como isso afeta a radicalização. Além disso, o estudo foi limitado, pois apenas analisou recomendações sem fazer login em uma conta do YouTube – o que não reflete como a maioria das pessoas navega na plataforma. Sem a cooperação do YouTube, é difícil replicar com precisão recomendações personalizadas em escala, o que significa que qualquer estudo que pretenda julgar definitivamente se a plataforma tem ou não impacto na radicalização das pessoas é inerentemente defeituoso.

O YouTube tem quase 2 bilhões de usuários ativos mensais, um número crescente de pessoas que usam a plataforma como sua principal fonte de notícias. Medidas como essa de combater os vídeos de conspiração recomendados e oferecer aos usuários um controle mais direto sobre o que o algoritmo mostra a eles são um passo na direção certa, mas ainda há trabalho a ser feito.