_YouTube

Caso brasileiro revela problemas do YouTube em lidar com pedofilia

Pesquisadores estudavam influência do YouTube no Brasil quando perceberam que o algoritmo da plataforma direcionava pedófilos a vídeos de crianças.

Crédito: YouTube/Pexels/Gizmodo

O algoritmo de recomendação do YouTube tem incentivado pedófilos a assistir vídeos que famílias publicam mostrando seus filhos brincando.

Uma matéria do New York Times detalhou como o YouTube tem explorado menores através deste sistema automatizado. Segundo o Times, pesquisadores do Berkman Klein Center for Internet and Society, de Harvard, estavam estudando a influência do YouTube aqui no Brasil quando perceberam o efeito alarmante. O experimento da equipe envolveu um servidor que seguiu as recomendações do YouTube milhares de vezes, criando uma espécie de mapa no processo, que mostrou como a plataforma orienta os usuários.

Enquanto o experimento seguia os caminhos de recomendações decorrentes de vídeos com temas sexuais, os pesquisadores notaram que o sistema apresentava vídeos “cada vez mais bizarros ou extremos, dando maior ênfase à jovens”, segundo o Times. “Vídeos de mulheres discutindo sexo, por exemplo, às vezes levavam a vídeos de mulheres em roupa íntima ou amamentando, às vezes mencionando suas idades: 19, 18 e até 16 anos”.

À medida que o experimento se aprofundava nas recomendações, os pesquisadores perceberam que o YouTube começou a sugerir vídeos de adultos vestindo roupas infantis e solicitando pagamentos de “sugar daddies”.

Depois dessas recomendações, o YouTube mostrou vídeos reais de “crianças parcialmente vestidas”, muitas delas localizadas no Leste Europeu e na América Latina, de acordo com o Times.

Esses conteúdos muitas vezes pareciam ser vídeos familiares publicados pelos pais, que possivelmente queriam compartilhar imagens de seus filhos com amigos e parentes. Mas, como o Times sugere, o algoritmo do YouTube pode ter aprendido com pessoas com transtorno psicológico que enxergam crianças de forma sexual e direcionam esses espectadores para os vídeos de famílias.

O Times entrevistou a mãe de uma criança brasileira de 10 anos, que mora em um subúrbio do Rio de Janeiro, que postou um vídeo de si mesma e de uma amiga brincando em uma piscina. Dentro de alguns dias, o vídeo foi visualizado 400 mil vezes.

A mãe, Christine C. (sobrenome não revelado por questões de privacidade), disse ao Times que quando sua filha foi, animada, mostrar a repercussão do vídeo, ela “ficou assustada com a quantidade de visualizações”.

De acordo com o Times, esse incidente foi revelado após o YouTube ter sido obrigado a enfrentar publicamente os problemas de pedofilia no início deste ano. Em fevereiro, a plataforma desativou comentários em diversos vídeos de menores após relatos de que pedófilos estavam comentando em vídeos de crianças como um sinal para outros assediadores.

Embora os estudos tenham mostrado que o sistema de recomendação do YouTube possa criar um “efeito toca de coelho”, através do qual o algoritmo recomenda conteúdos cada vez mais extremos, a empresa evitou a questão ou negou que seja verdade.

Em maio, o diretor de produtos do YouTube, Neal Mohan, disse ao Times: “Não é que conteúdos ‘extremos’ geram mais engajamento ou maior tempo de exibição do que outros tipos de conteúdo”. Em abril, a empresa reforçou seu posicionamento ao responder a uma investigação da Bloomberg alegando que “geralmente conteúdos extremos não têm um bom desempenho na plataforma”.

O YouTube não respondeu ao pedido do Gizmodo para comentar se a empresa mantém o argumento de que o sistema de recomendação não cria um efeito toca de coelho. Em vez disso, a empresa direcionou o Gizmodo a um post publicado na segunda-feira (3) sobre os seus “esforços para proteger menores” após a matéria do Times sobre vídeos que “não violam nossas políticas e são inocentemente publicados”.

O anúncio destacou os recentes passos do YouTube para desativar comentários em vídeos com menores de idade; restringir menores de gravarem livestreams, a menos que sejam feitos com um adulto claramente presente; e reduzir as recomendações de vídeos que mostram “menores em situações de risco”.

Segundo o YouTube, a empresa recentemente aprimorou seu mecanismo de machine learning para “identificar melhor os vídeos que podem colocar menores em risco”.

De acordo com o Times, os pesquisadores afirmam que impedir que vídeos de crianças sejam usados ​​no sistema de recomendação seria a melhor maneira de proteger as crianças. Mas o YouTube disse ao Times que não tem planos de fazer isso tão cedo, já que o sistema automatizado é o maior gerador de tráfego, e a medida prejudicaria os criadores de conteúdo.

Sair da versão mobile