Vire uma pinga sempre que o Facebook se eximir de responsabilidade editorial.

Na quinta-feira, o Facebook anunciou que vai usar algoritmos de “aprendizagem de máquina atualizada” para melhor detectar e atacar a desinformação em sua plataforma. A empresa diz que usará seus verificadores de fato de terceiros para revisar histórias que o novo algoritmo sinaliza, e seus relatórios podem ser mostrados abaixo de histórias marcadas em uma seção chamada Artigos Relacionados.

A função Artigos Relacionados – uma lista de links sugeridos que oferecem perspectivas variadas – não é nova, tecnicamente. O Facebook começou a testar publicamente o recurso em abril, mas agora a empresa está lançando o recurso mais amplamente em Estados Unidos, Alemanha, França e Holanda, informou o TechCrunch na quinta-feira. Esses são países aqueles em que o Facebook já realizou parcerias de verificação de fatos.

mnjwzzhaf1xwfmaukrq6

Imagem: Facebook

O Facebook diz que seu objetivo com artigos relacionados e tecnologia de aprendizagem de máquinas é oferecer aos usuários mais contexto sobre a validade de uma história que eles veem em seus feeds. A empresa pretende ajudar os usuários a fazerem melhores julgamentos sobre se devem ou não acreditar em uma mentira em potencial ou compartilhá-la com sua rede.

Mas também é uma maneira de o Facebook continuar a atuar como uma agência de notícias para bilhões de usuários sem aceitar diretamente qualquer responsabilidade jornalística.

“Nós não queremos ser e não somos os árbitros da verdade”, disse ao TechCrunch a gerente de produtos de integridade do Facebook News Feed, Tessa Lyons. “Os checadores de fatos podem dar o sinal se uma história é verdadeira ou falsa.”

Porém, embora o Facebook não queira ser visto como a autoridade sobre quais histórias são permitidas em sua plataforma, ele é. Ao delegar o trabalho subjetivo a funcionários que não são do Facebook e se apoiar na tecnologia de aprendizado de máquinas, o Facebook ainda consegue exercer sua influência como uma agência de notícias sem ser rotulado como uma. E se algum erro for cometido – como uma história politicamente carregada ser sinalizada como um engano, ou se o Facebook acidentalmente recomenda notícias falsas -, o Facebook agora pode mais facilmente transferir a culpa da falha para um terceiro.

O Facebook não contou por que seu algoritmo de aprendizagem de máquina é mais capaz agora do que antes – ou se uma versão anterior já era amplamente utilizada nos Newsfeeds dos usuários antes de hoje. Mas a empresa está aparentemente inclinada a tentar resolver seu problema de desinformação (o único que Mark Zuckerberg tentou esconder). A parte estranha é que o Facebook quer fazer isso sem ser responsabilizado diretamente pela forma como lida com uma notícia falsa em potencial. O Facebook não está dando as ordens, as máquinas estão.