_Redes Sociais

França quer que redes sociais removam conteúdos ilícitos em uma hora

A França aprovou uma nova lei que obrigará que plataformas digitais a eliminar conteúdos relacionados ao terrorismo e à pedofilia em apenas uma hora ou poderão ter que pagar multas que podem totalizar até 4% de suas receitas globais.

Logotipo do Facebook na Estação F em Paris. Crédito: Thibault Camus/AP

Foto: Thibault Camus/AP

A França aprovou uma nova lei que obrigará plataformas digitais a eliminar conteúdos relacionados ao terrorismo e à pedofilia em apenas uma hora ou poderão ter que pagar multas que podem totalizar até 4% de suas receitas globais, informou a Reuters nesta quarta-feira (13).

De acordo com a lei, que também criou um gabinete de monitoramento de discursos de ódio e um promotor especial para indiciar os infratores, as plataformas terão 24 horas para retirar conteúdos proibidos, “manifestamente ilícito”, antes que corram o risco de serem multadas.

O texto também estabelece um processo para as autoridades francesas auditarem os sistemas de moderação de conteúdo, segundo o Wall Street Journal.

De acordo com a Reuters, a ministra francesa da Justiça, Nicole Belloubet, disse acreditar que “as pessoas pensarão duas vezes antes de cruzar a linha se souberem que há uma grande probabilidade de que sejam responsabilizadas.”

Um grupo francês de liberdades civis, La Quadrature du Net, protestou contra as novas regras por estabelecerem um padrão irrealista. A organização disse à Reuters, em uma declaração, que não se leva em conta os horários úteis de trabalho e permite que a polícia vá atrás de plataformas por não agirem dentro de uma linha de tempo arbitrária: “se o site não censura o conteúdo (por exemplo, porque a queixa foi enviada durante o fim de semana ou à noite), a polícia pode forçar os provedores de serviços de internet a bloquear o site em qualquer lugar da França.”

O Facebook anunciou recentemente que lançaria uma ferramenta de aprendizagem de máquina para identificar e retirar memes com mensagens de ódio e disse em um relatório que, no primeiro trimestre de 2020, já havia removido 88,8% do discurso de ódio por meio de sistemas automatizados, um número maior do que os 80,2% das remoções automáticas do trimestre anterior.

A companhia também fechou um acordo que abrange mais de 11 mil moderadores e ex-moderadores que disseram ter tido problemas de saúde mental como resultado de sua contínua exposição a conteúdos de ódio, violência e misoginia, no valor de US$ 52 milhões. A rede também disse que implementou rótulos de alerta para desinformação relacionada com a pandemia de corona vírus, o que reduziu em 95% os cliques nesses conteúdos.

A chefe de relações públicas do Twitter na França, Audrey Herblin-Stoop, disse à Reuters que a empresa também estava implementando mais ferramentas de inteligência artificial e que atualmente, um a cada dois tuítes removidos pelos moderadores foram sinalizados pelas ferramentas de IA – em 2018, esse número era de um a cada cinco tuítes.

A escala de plataformas como o Facebook, no entanto, significa que o uso de ferramentas alimentadas por inteligência artificial para moderação é um problema complicado, sem resolução clara. Empresas comerciais obcecadas com o crescimento têm implementado continuamente essas ferramentas de uma forma que não consegue acompanhar o dilúvio de conteúdo proibido. Facebook, Twitter e o YouTube do Google continuam repletos de conteúdo extremista, por exemplo.

Como o WSJ observou, a Alemanha aprovou uma lei semelhante em 2018 que resultou em uma multa de aproximadamente US$ 2,16 milhões ao Facebook. Reportagens indicaram também que poder executivo da União Européia planeja um Imposto sobre Serviços Digitais que poderia sujeitar as empresas de tecnologia a uma responsabilidade muito maior pelo conteúdo gerado pelo usuário.

“Não podemos mais contar com a boa vontade das plataformas e suas promessas voluntárias”, disse o ministro francês de Assuntos Digitais, Cédric O, ao parlamento do país, na quarta-feira, segundo o WSJ. “Este é o primeiro passo para um novo paradigma de regulamentação das plataformas.”

Sair da versão mobile