YouTube se compromete a apagar vídeos com conteúdo de ódio, como os que pregam o nazismo
Por muito tempo, o Facebook foi alvo de críticas pela forma como lidava com conteúdo de ódio. Mais recentemente, o YouTube começou a ser alvo de escrutínio por causa do sistema de recomendação do site, que acabava indicando conteúdos extremistas por atraírem maior engajamento, além de problemas ao lidar com pedofilia na plataforma. Nesta quarta-feira (5), a companhia anunciou uma atualização em suas diretrizes da comunidade para evitar abusos na plataforma.
De forma bem direta, agora o YouTube disse que vai trabalhar para remover vídeos que “afirmem a superioridade de um determinado grupo como justificativa para discriminação, segregação ou exclusão com base em características como idade, gênero, raça, casta, religião, orientação sexual ou situação de veterano de guerra”.
Como exemplo, o blog post sobre a mudança da plataforma cita a ideologia nazista e pessoas que negam que houve o Holocausto. No entanto, o banimento deve incluir ainda vídeos mostrando preconceito contra castas (algo que ocorre historicamente na Índia) ou mesmo ofensas por orientação sexual.
A rede não fala abertamente o que levou a essas mudanças de diretrizes. No entanto, recentemente, o comentarista político conservador Steven Crowder gravou vídeos ofendendo o jornalista Carlos Maza, da Vox. Crowder insultava Maza por sua orientação sexual e sua origem.
O jornalista, então, fez uma série de tuítes relatando os insultos e de que estava sendo alvo de doxing — algumas pessoas chegaram até a mandar ofensas pelo telefone dele. Um perfil oficial do YouTube, então, respondeu a Maza dizendo que “embora Crowder tenha usado linguagem ofensiva, aquilo não violava as políticas da rede”.
Isto fez com que o assunto ganhasse grande repercussão, pelo menos nos meios de comunicação dos Estados Unidos, e que talvez tenha chamado a atenção da rede para o problema. Aliás, na tarde desta quarta-feira, o YouTube disse que iria remover a monetização do canal de Crowder.
Apesar da nova diretriz, o YouTube diz que alguns vídeos não serão tirados do ar. É o caso de conteúdos sobre legislações, que exponham ou condenem o ódio ou que ofereçam uma análise dos acontecimentos.
Contra conteúdo de ódio e duvidoso
Um dos grandes desafios de se combater os abusos na plataforma é justamente estabelecer limites sobre o que é conteúdo de ódio e o que não é. Por isso, o YouTube disse que, antes de tomar uma decisão sobre o assunto, consultou especialistas em extremismo, supremacia, direitos civis e liberdade de expressão.
“Graças à sua natureza aberta, o YouTube incentiva a criatividade e o acesso à informação. Cabe a nós a responsabilidade de proteger essa conquista e impedir que a plataforma seja usada para incitar o ódio, o assédio, a discriminação e a violência”, informa a plataforma em um blog post.
No anúncio desta quarta, a rede faz questão de retomar algumas ações anunciadas anteriormente. A primeira delas tem relação com conteúdo duvidoso — vídeos, por exemplo, falando sobre terraplanismo ou mesmo curas milagrosas de doenças começaram a aparecer menos nas recomendações nos Estados Unidos. A ideia é que isso seja expandido em todos os mercados e que apareçam vídeos de fontes confiáveis nas recomendações em vez de teorias mirabolantes ou não verificáveis.
O YouTube também quer mexer no bolso de criadores que produzem este tipo de conteúdo. No caso, a rede vai restringir a monetização de pessoas que publiquem vídeos que disseminam ódio e impedir o uso de Super Chat, uma ferramenta que possibilita que assinantes do canal tenham acesso exclusivo a vídeos do dono do canal.
No papel, a ideia é muito boa. No entanto, resta saber se na prática vai funcionar, dadas as nuances de argumentação. O YouTube se posicionar já parece ser o começo de algo; se vai funcionar mesmo, só o tempo dirá. Recentemente, após o massacre de Christchruch, na Nova Zelândia, a rede teve problemas para conseguir apagar os vídeos do homem atirando contra muçulmanos — toda hora aparecia alguém com uma cópia do arquivo.