Em uma jogada de autocongratulação, a Microsoft anunciou enormes melhorias nesta terça-feira (26) ao seu software de reconhecimento facial fundamentalmente preconceituoso. A API Face, baseada no Azure, foi criticada em um artigo de pesquisa neste ano por sua taxa de erro — de até 20,8% — ao tentar identificar o gênero de pessoas negras, particularmente mulheres com tons de pele mais escuros. Em contraste, a inteligência artificial da Microsoft foi capaz de identificar o gênero de fotos de “rostos masculinos mais claros” com uma taxa de erro de 0%, concluiu o estudo.

• Acionistas da Amazon pedem para Jeff Bezos parar de vender reconhecimento facial à polícia
• Grupo no Reino Unido pede proibição de sistema de reconhecimento facial com altas taxas de falso positivo

Como outras empresas desenvolvendo tecnologias de reconhecimento facial, a Microsoft não tinha imagens suficientes de pessoas negras e pardas, e isso ficou claro nos resultados de seus testes de reconhecimento. O post de blog da Microsoft desta terça-feira coloca o ônus principalmente nos dados usados ao construir o software de reconhecimento facial, afirmando que tais tecnologias só são “tão boas quanto os dados usados para treiná-las”. Considerando o dilema, a solução mais óbvia foi um novo conjunto de dados, contendo mais imagens de pessoas pardas e negras, o que a Microsoft fez.

“A equipe da API Face fez três grandes mudanças. Eles expandiram e revisaram conjuntos de dados de treinamento e benchmark, lançaram novos esforços de coleta de dados para melhorar os dados de treinamento focando especificamente em tom de pele, gênero e idade e melhoraram o classificador para produzir resultados de maior precisão.” Com a mais recente leva de melhorias, a Microsoft disse que foi capaz de reduzir as taxas de erro para homens e mulheres com pele mais escura em até 20 vezes. Para todas as mulheres, a companhia disse que as taxas de erro foram reduzidas em nove vezes.

Uma olhada rápida na página da API Face te dá um indício de por que o software de reconhecimento facial da Microsoft pode não ser tão bom em identificar rostos escuros:

No post de blog, a pesquisadora sênior da Microsoft Hanna Wallach tocou em uma das falhas mais amplas da indústria, apontando como dados gerados por uma sociedade preconceituosa levariam a resultados preconceituosos quando se trata de treinar sistemas de aprendizado de máquina. “Tivemos conversas sobre diferentes maneiras de se detectar preconceito e operacionalizar a justiça”, disse Wallach. “Conversamos sobre esforços de coleta de dados para diversificar os dados de treinamento. Conversamos sobre diferentes estratégias para testar internamente nossos sistemas antes de aplicá-las.”

A falha aqui nunca foi apenas que a tecnologia não funcionava apropriadamente para alguém que não fosse branco e homem. Da mesma forma, os problemas não acabam com a Microsoft melhorando sua identificação de gênero de pessoas negras e pardas.

Em janeiro, a Microsoft afirmou que o ICE (Serviço de Imigração e Controle de Aduanas dos EUA) iria usar seu serviço de nuvem Azure Government Cloud, em parte para “processar dados em dispositivos de entrada ou utilizar recursos de deep learning para acelerar o reconhecimento facial e a identificação”. O anúncio até agora levou a funcionários pedirem que a empresa cancele seu contrato com a agência governamental.

Mesmo que as tecnologias de reconhecimento facial se tornem menos preconceituosas, elas ainda podem ser usadas para o mal contra pessoas de cor. Na segunda-feira (25), o CEO da startup de reconhecimento facial Kairos, Brian Brackeen, escreveu sobre como a tecnologia pode ser perigosa nas mãos do governo e da polícia.

Imagem do topo: Getty