Cientistas buscam mudar algoritmos para evitar robôs racistas
Apesar de serem testadas à exaustão, inteligências artificiais sofisticadas não são 100% imparciais e à prova de erros. Algoritmos podem carregar alguns vícios, preconceitos e vieses de seus bancos de dados, o que pode resultar em análises e decisões equivocadas.
Algoritmos baseados em aprendizado de máquina são treinados com bases de dados já existentes. Funciona pela tentativa e erro: após serem ensinados muitas vezes o que é certo e o que não é, uma hora eles sabem identificar sozinhos esses padrões.
O problema é que esses conjuntos de dados, quando coletados em um contexto preconceituoso ou enviesado, acabam levando a IA a reproduzir padrões preconceituosos.
Pensando em analisar esses efeitos, os pesquisadores americanos William Hundt, Willie Agnew, Vicky Zeng, everin Kaciank e Matthew Gombolay realizaram uma espécie de “Teste das bonecas” para inteligências artificiais.
O nome faz referência a um experimento psicológico muito famoso, feito na década de 1940, para avaliar o impacto dos estereótipos sociais nos EUA. Basicamente, crianças de diferentes etnias tinham que analisar bonecas brancas e negras e dizer qual era mais legal, qual era feia, qual gostam mais de brincar — e qual mais se pareciam com elas mesmas.
Por mais triste que a história seja, essa era realidade dos EUA durante até o final da década de 1960, onde a segregação racial era amparada por lei — e, num passado não muito distante, também no Brasil.
De volta para o estudo atual, com algoritmos. A ideia do grupo foi testar um braço robótico com um sistema de visão computacional que ligava imagens à palavras. O teste consistiu na associação de fotos 3×4 de pessoas à algumas frases selecionadas.
O resultado foi uma relação de imagens a palavras que reproduziu estereótipos racistas e sexistas. Estudos anteriores mostraram que, ao analisar minorias – como amarelos e, principalmente, negros -, máquinas costumam associá-las a comportamentos criminosos e outros tipos de preconceito.
Para remediar esta situação, os pesquisadores propuseram algumas ações para evitar o desenvolvimento de robôs preconceituosos.
Uma delas é justamente o aumento da pluralidade nos espaços de trabalho que desenvolvem robôs ou bancos de dados para robótica, para evitar que os dados fiquem de alguma forma enviesados e reproduza estereótipos.
Outra sugestão é erradicar completamente o conceito de que traços físicos possam ter relação com traços de personalidade ou caráter, que ainda é usado atualmente em alguns softwares.
Isso aconteceu com o algoritmo desenvolvido por pesquisadores da Universidade de Harrisburg, nos EUA, que prevê se uma pessoa é criminosa com base no rosto.
O algoritmo ganhou notoriedade e foi duramente criticado por diversas instituições ligadas à pautas de direitos humanos ou que lutam por igualdade.
Willie Agnew, que participou do estudo com o braço robótico, destacou outro artigo que revela que apenas 1% dos trabalhos de pesquisa de machine learning consideram os possíveis impactos negativos que a inteligência artificial pode ter na sociedade.
Agnew defende que o estudo com o algoritmo de visão computacional utilizado juntamente com o braço robótico serve de alerta para a comunidade de desenvolvedores se atentarem para os prováveis danos que a tecnologia pode causar à indivíduos — e, por tabela, reforçar desigualdades que já existem.