O YouTube pode se tornar um oceano de teorias da conspiração de você der uma mergulhada na plataforma por algumas horas. Basta cair em um vídeo de um gênero para que as informações sejam reforçadas por novos conteúdos – e isso vale para todo o material do site. Nesta semana, a companhia admitiu que vinha promovendo teorias conspiratórias e conteúdos com desinformação e anunciou mudanças em seus algoritmos.

De acordo com a publicação oficial no blog do YouTube, serão reduzidas as recomendações de “conteúdos limítrofes e conteúdos que podem desinformar os usuários de maneiras prejudiciais – como vídeos que promovam curas milagrosas falsas para doenças sérias, que digam que a Terra é plana ou que descaradamente façam afirmações falsas sobre eventos históricos como 9 de setembro”.

A plataforma diz que as alterações no algoritmo irão impactar menos de 1% dos vídeos publicados – mas sabendo da dimensão do YouTube, serão milhões de conteúdos. “Acreditamos que essa mudança irá atingir um equilíbrio entre manter a plataforma aberta à liberdade de expressão e assumir a responsabilidade pelos usuários”, diz a companhia.

Essa atualização não significa que moderadores humanos irão fazer a curadoria do conteúdo. A mudança está relacionada ao algoritmo – este sim, que será treinado por humanos.

A nova política começa a funcionar aos poucos para o mundo todo. Os primeiros impactos devem acontecer nos Estados Unidos. A tendência é que os usuários vejam menos desses vídeos nas abas “Em Alta” e em “Recomendações”.

O YouTube reforça que vídeos conspiratórios não serão proibidos na plataforma e ainda aparecerão nos resultados de busca e na aba de vídeos relacionados. Pelo menos devem parar de aparecer no YouTube Kids.

[YouTube]