O Twitter anunciou nesta quinta-feira (1°) que está mudando a forma como o algoritmo de corte automático de imagens vai operar na rede social. A atualização vem quase duas semanas depois que usuários acusaram a plataforma de racismo, já que o mecanismo parecia favorecer rostos brancos em vez de pretos.

Segundo o Twitter, os usuários terão mais liberdade para alterar a prévia de imagens antes de publicá-las no site, diminuindo a dependência da plataforma de um algoritmo de machine learning (aprendizado de máquina) que faz todo o trabalho. Apesar de não ter especificado como isso vai funcionar exatamente, a companhia afirma que irá “seguir os princípios de design ‘o que você vê é o que você obtém’ [também conhecido pela sigla WYSIWYG], ou seja, a foto que você vê na hora que estiver compondo um tweet é a imagem que irá aparecer em seu tweet publicado”.

Na prática, isso significa que, antes de publicar um tweet com imagem, é muito provável que você tenha a opção de editar o preview daquela foto. Sem dúvida, é uma mudança bem-vinda, mas isso não acaba por completo com o problema de desigualdade do algoritmo. O próprio Twitter diz que “podemos ter algumas exceções, como fotos que não são do tamanho padrão ou são realmente longas ou largas”.

Ainda não se sabe quando essas alterações serão implementadas na rede social.

A ferramenta de corte automático de imagens no Twitter foi lançada em 2018. Na época, a empresa explicou que o corte acontece por meio de um algoritmo, que por sua vez determina uma parte mais “saliente” da figura, em que seus olhos possivelmente vão olhar primeiro. Rostos parecem ser o item que o algoritmo mais prioriza, e aí veio a acusação de racismo.

Há cerca de 14 dias, vários usuários do Twitter fizeram testes que indicam uma priorização de rostos brancos em vez de pretos nas prévias de tweets. Mesmo usando variáveis distintas — por exemplo, deixar um rosto negro em proporção maior ao branco –, a rede social continuava destacando o rosto branco. Até com desenhos animados e cachorros o algoritmo deu preferência àqueles de tom mais claro.

Em um post no blog, o Twitter explica que o sistema de corte de imagens passou por uma análise inicial para detectar possíveis vieses, comparando a preferência do sistema sempre entre dois grupos demográficos (branco e negro, branco e indiano, branco e asiático, e homem e mulher) e combinando dois rostos na mesma imagem, a partir de uma seleção aleatória. O experimento foi repetido 200 vezes para cada par de categorias demográficas.

O Twitter complementa dizendo o seguinte:

Embora nossas análises até o momento não tenham mostrado viés racial ou de gênero, reconhecemos que a maneira como cortamos as fotos automaticamente significa que há potencial para danos. Deveríamos ter feito um trabalho melhor ao imaginar essa possibilidade quando estávamos projetando e construindo este produto. Estamos conduzindo análises adicionais para deixar nossos testes mais rigorosos. Além disso, estamos comprometidos em compartilhar nossas descobertas e explorando maneiras de abrir o código de nossas análises para que outras pessoas possam nos ajudar e responsabilizar.

[Twitter, Engadget]