_YouTube

YouTube quer combater teorias da conspiração usando a Wikipedia – só faltou avisá-los

Nesta semana semana, durante o festival SXSW, a CEO do YouTube, Susan Wojcicki, propôs uma solução para vídeos com teorias de conspiração e farsas que estão tomando conta da plataforma ao brincar com os algoritmos. • Pesquisa aponta o que já se imaginava: você não vai ficar rico com seu canal no YouTube • CEO do […]

Nesta semana semana, durante o festival SXSW, a CEO do YouTube, Susan Wojcicki, propôs uma solução para vídeos com teorias de conspiração e farsas que estão tomando conta da plataforma ao brincar com os algoritmos.

• Pesquisa aponta o que já se imaginava: você não vai ficar rico com seu canal no YouTube
• CEO do YouTube diz que o Facebook deveria “voltar para as fotos de bebê”

A executiva não se propôs a fazer uma autocrítica e examinar se o modelo de negócios do YouTube que beneficia a propagação de conteúdo controverso e portanto “que dá mais engajamento”. Recentemente, vídeos que degradavam a imagem dos sobreviventes do tiroteio na escola em Parkland ficou na seção de “Tendências” do site.

Em vez de fazer tal análise, Wojcicki explicou que o YouTube pretende inserir um link para um artigo da Wikipedia abaixo dos vídeos que sejam marcados como conteúdos conspiratórios, como pode ser visto no tuíte abaixo em que ela mostra um exemplo de um vídeo sobre “Conspirações sobre aterrisagem na Lua”:

Existem diversos e óbvios problemas com o exemplo colocado por Wojcicki. Primeiro, o módulo que aparece abaixo do vídeo do YouTube em questão apenas adiciona as palavras “Aterrisagem na Lua”, a definição de aterrisagem na Lua e cita que missão Apollo 11 da NASA foi a primeira a realizar um pouso desse tipo… E aí a frase é cortada pela metade com um link para a Wikipedia. Sério, é isso aqui o que aparece:

Aterrisagem na Lua

Uma aterrisagem na Lua é a chegada de uma nave espacial na superfície da Lua. A Apollo 11 dos Estados Unidos foi a primeira missão tripulada a aterrisar… Wikipedia

Em nenhum ponto o módulo desafia alguma afirmação específica que possa ter sido feita no vídeo, nem mesmo alerta que as ideias expostas devem ser julgadas com bastante ceticismo – como o Google já faz (de forma imperfeita, como admitem) nas barras laterais que aparecem junto com pesquisas para sites de notícias.

A Wikipedia pode ser, de fato, uma ferramenta confiável para obter referências. Mas como nota o Guardian, o site alerta explicitamente que às vezes há dificuldade em lidar com histórias velozes. Além disso, indicar num vídeo com entusiastas de teorias da conspiração um link para uma enciclopédia online que qualquer um pode editar é uma estratégia bem discutível.

Tom Gara, do BuzzFeed, se referiu ao módulo como “uma boa maneira de encorajar a deformação de artigos da Wikipedia em escala. Além disso, a propósito primário da Wikipedia não é contestar coisas; o artigo citado por Wojcicki apenas cita teorias da conspiração ao redor do pouso do homem na Lua em algumas seções, mas apenas de passagem.

Embora o YouTube diga que a Wikipedia pode ser apenas uma entre diversas fontes de terceiros para esse modulo, a adição ainda não parece uma boa ideia. Parece apenas uma aceno para mascarar a falta de vontade da plataforma em resolver o problema dos conteúdos nocivos circularem rotineiramente e a intenção de lucrar com qualquer coisa que esteja no limite entre o que pode estar na internet e o que fará com que enfrentam ações judiciais ou má reputação com o público.

O site de vídeos na verdade apareceu dobrar a aposta na ideia de que plataformas não deveriam entrar no assunto de regulamentação de conteúdo a menos que ele não sejam extremamente nocivos. Como Ryan Mac do BuzzFeed publicou no Twitter, Wojcicki sugeriu que embora o YouTube possa determinar qual conteúdo traz discurso de ódio, eles não deveriam debater a natureza da verdade.

Óbvio que existe lugar para nuances – essa resposta parece ser um refúgio de realidade.

Um porta-voz do YouTube ofereceu alguns esclarecimentos a respeito do pensamento por trás da demonstração, em um email enviado ao Gizmodo:

Estamos sempre explorando novas maneiras de combater a desinformação no YouTube. No SWSX, anunciamos planos para mostrar sugestões de informações adicionais, incluindo uma caixa de textos linkando a terceiros sobre eventos amplamente conhecidos, como a aterrisagem na lua. Essas funcionalidades serão disponibilizadas nos próximos meses, mas além disso não temos nenhuma informação para compartilhar neste momento.

Perguntas sobre como os links para artigos de referência geral da Wikipedia diminuirão a proliferação de conteúdo conspiratório no YouTube ou se a parceria com organizações de fact-checking não poderia ser mais efetiva, não obtiveram respostas específicas.

Uma outra solução que o YouTube explorou foi contratação de milhares de novos moderadores, mas é claro que, mesmo com a equipe adicional, o site está tendo dificuldade em controlar a enorme quantidade de conteúdo gerado pelos usuários. A equipe voltou atrás em decisões sobre expulsar da plataforma pessoas como o fundador da InfoWars, Alex Jones, ou seu subordinado Jerome Corsi, aumentando a impressão de que o site sempre acaba deixando de lado mudanças radicais.

A Wikipedia não fazia ideia do plano

A diretora executiva da Wikipedia Katherine Maher sugeriu no Twitter que a organização não fazia ideia do plano do YouTube. Quando foi perguntado a ela se o novo módulo funcionaria apenas para páginas em inglês na enciclopédia, Maher respondeu: “Eu não posso dizer; isso foi algo que eles fizeram de forma independente”.

Em um comunicado enviado ao Gizmodo, a Wikimedia Foundation confirmou que a organização só ficou sabendo da nova funcionalidade do YouTube na terça-feira (13). “Sempre ficamos felizes em ver pessoas, empresas e organizações reconhecendo o valor da Wikipedia como um repositório de conhecimento gratuito”, disse um porta-voz da Wikimedia Foundation no comunicado. “Neste caso, nem a Wikipedia ou a Wikimedia Foundation fazem parte de uma parceria formal com o YouTube. Não recebemos aviso prévio sobre este anúncio.”

Não está claro por que o YouTube não achou que seria necessário informar a Wikimedia a respeito de seus planos. É uma informação bastante crucial para não compartilhar. E como o YouTube tem falhado na moderação eficiente a respeito das teorias de conspiração na plataforma, seria uma opção inteligente consultar a Wikimedia para saber como usar melhor os recursos para combater a desinformação. Talvez o YouTube já teria aprendido que mostrar aos usuários um link da Wikipedia não é a melhor maneira de lutar contra farsas.

Entramos em contato com o YouTube e iremos atualizar a publicação se obtivermos resposta.

[The Guardian]

Imagem do topo: AP

Colaborou: Melanie Ehrenkranz

Sair da versão mobile