YouTube diz que vai remover vídeos com mentiras sobre vacina contra COVID-19

O YouTube anunciou nesta semana que removerá mentiras e teorias da conspiração sobre a pandemia do novo coronavírus.
Uma vacina contra a gripe sendo preparada em Las Rozas, Espanha, em 14 de outubro de 2020. Foto: Pablo Blazquez Dominguez/Getty Images

O YouTube anunciou na quarta-feira (14) que estenderá as regras atuais sobre mentiras, propaganda e teorias da conspiração sobre a pandemia do coronavírus para incluir desinformação sobre as vacinas contra a doença.

De acordo com a Reuters, a gigante do vídeo diz que agora vai proibir conteúdos sobre vacinas contra o coronavírus que contradizem “o consenso de especialistas das autoridades de saúde locais ou da OMS”, como afirmações falsas de que a vacina é um pretexto para colocar chips de rastreamento nas pessoas ou que irá matar ou esterilizar quem tomar.

A empresa também disse à agência de notícias que limitaria a difusão de conteúdos que beiram a violação das regras, embora não tenha entrado em detalhes sobre como faria isso.

As regras do Google já cobriam tópicos relacionados a tratamento, prevenção, diagnóstico e transmissão do vírus. Elas mencionavam especificamente vacinas no contexto de alegações falsas de que alguma já estava disponível ou de que havia uma cura garantida.

“Estamos garantindo que temos as políticas corretas em vigor para poder remover desinformação relacionada a uma vacina contra COVID-19”, disse Farshad Shadloo, porta-voz do YouTube, ao Verge.

Desinformação

O YouTube tem enfrentado problemas de proporções históricas para evitar informações incorretas sobre a pandemia. Conteúdos desse tipo já acumulam milhões de visualizações no site em 2020.

Um estudo divulgado em setembro pelo Oxford Research Institute e pelo Reuters Institute, cobrindo parcialmente o período de outubro de 2019 e junho de 2020, descobriu que os vídeos de desinformação sobre o coronavírus no YouTube foram compartilhados mais de 20 milhões de vezes no Facebook, Twitter e Reddit. Isso superou o alcance combinado da CNN, ABC News, BBC, Fox News e Al Jazeera nesses sites no mesmo período (15 milhões).

Os pesquisadores só foram capazes de identificar 8.105 vídeos removidos pelo YouTube contendo “desinformação relacionada a COVID” no período, menos de 1% de todos os vídeos de coronavírus.

Curiosamente, os pesquisadores também encontraram fortes evidências de que o principal veículo dos vídeos virais do coronavírus no YouTube era o Facebook, não os próprios assinantes dos canais. Isso pode ajudar alguns conteúdos a driblar os padrões da comunidade do site de vídeos, pois sua aplicação depende muito de denúncias dos usuários. O Facebook implementou algumas regras repletas de lacunas sobre o conteúdo antivax em anúncios, mas não tem regras contra posts orgânicos ou não pagos. Do estudo:

Vídeos de desinformação compartilhados no Facebook geraram um total de cerca de 11.000 reações (curtidas, comentários ou compartilhamentos), antes de serem excluídos pelo YouTube […] Os pesquisadores de Oxford também descobriram que dos 8.105 vídeos de desinformação compartilhados no Facebook entre outubro de 2019 e junho de 2020, apenas 55 tinham etiquetas de aviso anexadas a eles por verificadores de fatos independentes, o que dá menos de 1%. Essa falha na verificação de fatos ajudou os vídeos de desinformação relacionados a COVID a se espalharem no Facebook e encontrarem um grande público.

Os pesquisadores de Oxford observaram que, apesar do investimento do YouTube em conter a disseminação de informações incorretas, ainda demorou em média 41 dias para o YouTube remover vídeos relacionados a COVID com informações falsas. Vídeos de desinformação foram vistos em média 150 mil vezes antes de serem excluídos.

Movimento antivacina e teorias da conspiração

O YouTube também tem sido um centro de conteúdo antivax em geral. Embora pesquisas feitas ano passado (antes da pandemia) tenham constatado que ele estava em declínio, o movimento está longe de ser expulso do site.

Um estudo do Annenberg Public Policy Center da Universidade da Pensilvânia, em fevereiro, descobriu que pessoas que se baseavam nos meios de comunicação tradicionais para se informar sobre as vacinas eram menos propensos a acreditar em alegações antivax do que aqueles que se baseavam nas redes sociais.

Uma pesquisa recente da Pew Survey descobriu que cerca de 26% dos adultos dos EUA recebem notícias no YouTube e que o conteúdo que estão consumindo tem maior probabilidade de conter informações de teorias da conspiração.

Os produtores e consumidores de desinformação são ótimos em fugir das regras. De acordo com a Wired, as equipes internas do YouTube encarregadas de caçar e eliminar vídeos com falsas alegações sobre o vírus descobriram que seu sistema de recomendação — que tinha sido ajustado em 2019 para promover significativamente menos conteúdo de teorias da conspiração e vinha obtendo sucesso nisso — estava se tornando cada vez menos importante para impulsionar grandes quantidades de tráfego para falsas alegações sobre o coronavírus.

Em vez disso, eles notaram um grande aumento no número de vídeos que foram carregados e rapidamente promovidos fora do site por meio de uma “mistura de compartilhamento orgânico de links e promoção não autêntica, impulsionada por bots” em outros sites como Facebook e Reddit.

O YouTube disse ao Telegraph em setembro que o estudo de Oxford e Reuters usou dados desatualizados. Um porta-voz declarou ao Guardian na quarta-feira que a empresa removeu mais de 200.000 vídeos desde o início de fevereiro, embora muitos deles pudessem ter sido reenviados, gerados automaticamente ou postados em cantos onde tinham pouca chance de se tornarem virais.

Outro estudo recente do Centro Berkman Klein para Internet e Sociedade, de Harvard, descobriu que a mídia social era secundária em relação à disseminação de teorias da conspiração sobre votação pelo correio — o principal veículo era mesmo o presidente dos EUA, Donald Trump, e seus aliados do Partido Republicano, que foram amplificados pela cobertura da mídia tradicional.

Isso parece coincidir com as descobertas de pesquisadores da Oxford e da Reuters em abril, que descobriram que figuras públicas proeminentes fizeram apenas 20% das afirmações em uma amostra de 225 declarações consideradas falsas por verificadores de fatos, mas geraram 69% do engajamento na mídia social.

Plataformas, incluindo o YouTube, tiveram algum sucesso em limitar a disseminação de alguns esforços de desinformação, como uma sequência do infame vídeo Plandemic que acumulou mais de 8 milhões de visualizações em maio (o lançamento da sequência, no entanto, foi anunciado com antecedência).

Em setembro, o YouTube decidiu excluir clipes de uma entrevista da Hoover Institution com o consultor de coronavírus da Casa Branca, Dr. Scott Atlas, que semeou dúvidas sobre a eficácia do distanciamento social e ensaiou um endosso ao governo Trump e sua uma perigosa estratégia de “imunidade coletiva”.

De acordo com o Guardian, o YouTube diz que vai anunciar mais medidas que vem sendo tomadas para limitar a disseminação de desinformação sobre vacinas em seu site nas próximas semanas.

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas