Em meio a denúncias de que se tornou uma plataforma nociva para as pessoas, a empresa Facebook –hoje chamada Meta– corre para desenvolver um novo algoritmo para moderar rapidamente conteúdos considerados perigosos na sua rede social.

Desde 2009, o Facebook conta com suporte para o idioma árabe –algo que foi aplaudido na época– por ajudar a impulsionar os protestos conhecidos como “Primavera Árabe”.

Entretanto, segundo a Wired, mais de uma década depois, os sistemas de moderação ainda enfrentam dificuldades para entender, por exemplo, dialetos árabes falados no Paquistão e na Etiópia.

Mianmar desencadeou medida

A falta de moderação pode gerar problemas graves envolvendo violência, como foi o caso do genocídio ocorrido em Mianmar, episódio este que a empresa admite ter tido influência.

Para barrar a disseminação de postagens violentas ou que incitam abusos aos direitos humanos –assim como minimizar a crise de relações públicas que a empresa enfrenta atualmente–, o novo algoritmo busca construir um sistema de moderação ágil a partir de padrões estatísticos de conteúdo do Facebook.

A ideia foi adaptar a Inteligência Artificial, tendo como base as postagens ou imagens moderadas no passado.

Com esse “treinamento”, o algoritmo poderá encontrar novos tipos de conteúdos, aplicar as novas regras, assim como ampliar o uso do sistema para novos idiomas, tudo isso com menos esforço do que os modelos estatísticos anteriores.

O nome é Few-Shot Learner

Segundo Cornelia Carapcea, gerente de produto do Facebook, os sistemas tradicionais de moderação exigiam centenas de milhares ou milhões de postagens de amostra para serem implantados.

Já o novo sistema –batizado de “Few-Shot Learner”– pode começar com uma amostra de apenas algumas dezenas.

“Já sabemos muito, então pode ser mais rápido aprender novos problemas e políticas. É sempre difícil obter dados rotulados suficientes sobre questões como violência, expressão maliciosa e agitação. Isso nos permite responder mais rapidamente”, diz Carapcea.

Ela também explica que pode instruir o sistema a encontrar uma categoria de conteúdo sem dar exemplos, simplesmente fornecendo a ele uma descrição por escrito da nova política, o que demonstra o poder impressionante desses novos modelos.

Porém, a gerente reconhece que os resultados não são confiáveis , mas que o método pode ser usado para sugerir rapidamente o que a moderação automática eliminará ou para treinar ainda mais o algoritmo.

Carapcea diz ainda que conforme o Facebook desenvolve novos sistemas de moderação, também desenvolverá maneiras de verificar a precisão e o viés do desempenho dessas ferramentas.