Ferramenta de contratação com IA da Amazon estaria prejudicando candidatas a cargos na empresa

Durante anos, uma equipe da Amazon supostamente trabalhou em um software que analisava os currículos de candidatos de emprego em um esforço para apontar as contratações mais prováveis. Ficou gradativamente mais claro que, independentemente do quanto os engenheiros tentassem consertá-lo, o motor de recrutamento sempre encontrava um jeito de discriminar mulheres, segundo informa a Reuters. • Apple […]

Durante anos, uma equipe da Amazon supostamente trabalhou em um software que analisava os currículos de candidatos de emprego em um esforço para apontar as contratações mais prováveis. Ficou gradativamente mais claro que, independentemente do quanto os engenheiros tentassem consertá-lo, o motor de recrutamento sempre encontrava um jeito de discriminar mulheres, segundo informa a Reuters.

• Apple e Amazon negam haver esquema chinês de espionagem em seus servidores
• Amazon aumenta salário mínimo nos EUA para US$ 15 por hora depois de pressão pública

Na quarta-feira (10), a agência de notícias citou cinco fontes familiarizadas com o programa de revisão de currículos automatizado, que começou em 2014. De acordo com essas fontes, uma equipe que consistia em cerca de doze engenheiros recebeu a tarefa de construir um programa que utilizaria machine learning para inspecionar o equivalente a uma década de currículos enviados à Amazon e examinar as práticas de contratação subsequentes. O objetivo era ensinar uma inteligência artificial como identificar as contratações mais prováveis, de forma a simplificar a lista de potenciais candidatos, que teria que ser, em seguida, examinada por recrutadores humanos. Da Reuters:

Na verdade, o sistema da Amazon ensinou a si mesmo que os candidatos homens eram preferíveis. Ele penalizou os currículos que incluíam o termo “das mulheres/feminino”, como “capitã do clube de xadrez feminino”. E ele também rebaixou graduadas de duas faculdades só para mulheres, segundo pessoas familiarizadas com o assunto. Elas não especificaram os nomes das faculdades.

A Amazon editou os programas para torná-los neutros em relação a esses termos específicos. Mas isso não garantiu que as máquinas não criassem novos métodos de organizar os candidatos de formas que pudessem se provar discriminatórias, disseram as pessoas.

O Gizmodo entrou em contato com a Amazon para falar sobre a reportagem e para perguntar se a ferramenta já havia sido usada em seu processo de contratação, mas não tivemos uma resposta imediata. Fontes da Reuters alegaram que os recrutadores da Amazon olharam as recomendações sinalizadas pelo sistema, mas que não confiaram em seus rankings.

Os problemas sobre a discriminação de gênero do algoritmo se tornaram aparentes cerca de um ano depois do início do projeto, e ele foi, em certo momento, abandonado no ano passado, disse a reportagem. Parece que um dos principais problemas foi o banco de dados com que a Amazon teve que trabalhar. Maioria dos currículos enviados à empresa na última década veio de homens, e o setor de tecnologia tem sido controlado por homens desde os seus primórdios.

Outro problema citado na reportagem foi a preferência do algoritmo por uma linguagem que era frequentemente usada por candidatos homens. Palavras e frases comuns como uma proficiência em uma certa linguagem de programação eram ignoradas, e verbos como “executar” e “capturar” ganhavam mais peso.

Depois de 500 versões, cada uma treinada para entender 50 mil termos únicos, a equipe não conseguiu fazer a ferramenta parar suas práticas discriminatórias, diz a Reuters. À medida que o tempo passava, os modelos muitas vezes acabavam aleatoriamente recomendando candidatos não qualificados.

Os esforços da equipe destacam as limitações dos algoritmos assim como a dificuldade de se automatizar práticas em um mundo em transição. Cada vez mais mulheres estão entrando no setor tecnológico, e todas as gigantes da tecnologia têm iniciativas para promover diversidade, de uma forma ou de outra. Mas a mudança tem sido dolorosamente devagar. As máquinas simplesmente fazem o que mandamos elas fazerem. Se uma máquina está aprendendo a partir de exemplos, e tudo o que conseguimos fornecer é um exemplo sexista, teremos resultados sexistas.

Segundo a Reuters, uma nova equipe foi montada no centro de engenharia da Amazon em Edimburgo, na Escócia, para uma nova abordagem tecnológica em torno das práticas de contratação.

[Reuters]

Imagem do topo: Getty

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas