O Google, junto com gigantes da tecnologia como Amazon, Facebook e Twitter, tem sido cada vez mais alvo de críticas neste ano em relação à preocupação de que sua “autoridade concentrada lembra o direito divino dos reis”, como coloca o New York Times. Nos últimos meses, a empresa enfrentou obstáculos ao retornar pesquisas com desinformação e teorias da conspiração durante crises como tiroteios em massa, além de se ver envolvida no escândalo da interferência russa nas eleições americanas, que não para de crescer. Mas um ponto particularmente perturbador está no YouTube e sua seção YouTube Kids, em que, recentemente, todo mundo parece ter descobrido que conteúdos esquisitos e assustadores para crianças têm sido promovidos por meio de vídeos sugeridos através de algoritmos e uma aparente falta de moderação.

Você sabe, coisas casuais, como vídeos da Peppa Pig sendo torturada por seu dentista e bebendo cloro, ou vídeos do Homem-Aranha dando em cima de mulheres de biquíni. Embora as pessoas tenham diferentes estilos de criar seus filhos, a maioria delas não gostaria que seus filhos de quatro anos de idade estivessem assistindo a essas coisas. Outras preocupações incluíam vídeos aterrorizantes de crianças de verdade em situações perigosas. Não é uma tendência nova, mas só agora começou a atrair maior atenção.

Agora, o Google parece estar agindo, segundo o TechCrunch. Em um post de blog na quarta-feira (22), o YouTube explicou que tomaria uma série de medidas para reprimir uma “tendência crescente de conteúdo no YouTube que tenta se passar como para a família, mas claramente não é”.

De acordo com o YouTube, já foram fechados 50 canais com conteúdo “com participação de menores que podem estar colocando em perigo uma criança, mesmo que esse não tenha sido o intuito de quem fez o upload”, e também deletou milhares de vídeos. O YouTube está também implementando uma restrição de idade automática para vídeos apresentando “personagens de entretenimento familiar, mas que contêm temas ou humor adultos”. A gigante dos vídeos também afirmou estar investindo em aprendizado de máquina e outras ferramentas para denunciar violações a moderadores de conteúdo humanos.

O YouTube também disse que vai deixar de monetizar todos os vídeos que incluíssem tais personagens de entretenimento para a família retratados em situações violentas ou ofensivas — o que acaba com pelo menos parte do incentivo para criá-los em primeiro lugar —, assim como vai desativar comentários quando a sua combinação máquina-moderadores humanos detectar comportamento ilegal ou inapropriado. Por fim, o site acrescentou que trabalharia para esclarecer os padrões e diretrizes para criadores de conteúdo, além de incluir mais “especialistas” em sua formação de políticas e processos de moderação.

Isso é um monte de promessas, mas, já com milhões de vídeos no site, eliminar a vasta maioria do conteúdo é provavelmente impossível, e mesmo mantê-lo longe das crianças é o tipo de projeto trabalhoso que é mais fácil falar do que fazer. Enquanto isso, existe uma solução simples sugerida pelo colega de Gizmodo Adam Clark Estes: talvez, não deixe seus filhos no YouTube sem supervisão.

[TechCrunch]