A IBM não irá mais desenvolver e pesquisar a tecnologia de reconhecimento facial, nem oferecê-la para órgãos de aplicação da lei e forças policiais. A medida foi anunciada pelo CEO da companhia, Arvind Krishna, em uma carta enviada para o Congresso americano.

Krishna explicou a saída da IBM do campo de reconhecimento facial alertando para os riscos de violações à privacidade. Ele destacou os riscos da aplicação da tecnologia pela polícia e outros órgãos de aplicação da lei:

A IBM opõe-se firmemente e não tolerará o uso de qualquer tecnologia, incluindo tecnologia de reconhecimento facial oferecida por outros fornecedores, para vigilância em massa, criação de perfis raciais, violações de direitos humanos e liberdades básicas, ou qualquer propósito que não seja consistente com nossos valores e Princípios de Confiança e Transparência. Acreditamos que agora é o momento de iniciarmos um diálogo nacional sobre se e como a tecnologia de reconhecimento facial deve ser empregada pelos órgãos nacionais de aplicação da lei.

A companhia diz ainda que “fornecedores e usuários de sistemas de inteligência artificial possuem uma responsabilidade compartilhada para garantir que o sistema seja testado para vieses, particularmente quando usados para a aplicação da lei, e que tal teste de viés deve ser auditado e relatado”.

A carta enviada pela IBM para o Congresso apoia um projeto de lei denominado Justice in Policing Act (Lei de Justiça no Policiamento, em tradução livre), apresentado nesta segunda-feira (8). A companhia decidiu anunciar a sua decisão após a morte de George Floyd e as manifestações levantarem questões sobre a desigualdade racial e sobre uma possível reforma policial nos EUA.

Pesquisas sobre o uso de inteligência artificial em sistemas de reconhecimento facial apontaram amplamente que há grandes chances de a tecnologia reforçar injustiças e atingir minorias.

Um estudo realizado pelo Instituto Nacional de Padrões e Tecnologias dos EUA (NIST) publicado em 2019 apontou, por exemplo, que existe enviesamento na maioria dos programas, e que o número de erros é maior entre negros, mulheres e indígenas. Essa foi apenas uma das pesquisas que apontou para o enviesamento, mas aponta uma tendência já que foi testada em mais de 100 softwares de reconhecimento facial.

Em 2018, a ONG União Americana pelas Liberdades Civis (ACLU, na sigla em inglês) mostrou que o software Rekognition, da Amazon, errou na identificação de 28 membros do Congresso dos EUA, ligando eles a fotos de arquivos policias. A empresa deu uma resposta atrapalhada.

A noção popular de que as máquinas são “neutras” e “não erram” também abre espaço para abusos no uso do reconhecimento facial. Uma vez que esses sistemas são utilizados como evidência, é menos provável que uma pessoa inocente consiga provar que não é ela naquelas imagens.

A linha entre o uso dos sistemas de reconhecimento facial para segurança pública e para a vigilância permanente da população e a perseguição de determinados grupos étnicos é tênue. De acordo com o New York Times, o governo chinês está usando a tecnologia para rastrear os uigures, a minoria muçulmana do país. Há preocupações em outros países, como na Índia, onde os sistemas estão se ampliando rapidamente e há uma divisão forte entre religiões e etnias.

Há outras controvérsias em relação à privacidade quando se trata de desenvolver esses sistemas, que precisam de banco de dados com fotos para serem treinadas.

A própria IBM, por exemplo, foi descoberta utilizando uma base com imagens capturadas do Flickr sem o consentimento das pessoas, embora as imagens estivessem sob a licença Creative Commons. Na ocasião, a companhia disse que a base foi acessada somente por pesquisadores verificados, incluía fotos que estavam disponíveis publicamente e que as pessoas poderiam optar por saírem do conjunto de fotos. Uma reportagem de 2019 apontava que a companhia vendia sua tecnologia para ditaduras como a dos Emirados Árabes Unidos.

Como bem apontou a CNBC, o negócio de reconhecimento facial não é um dos principais setores de atuação da IBM, nem gera lucros para a empresa – a iniciativa, porém, pode gerar uma boa imagem para uma companhia que frequentemente trabalha com governos ao redor do mundo.

A medida também é um apoio de peso para a não utilização da tecnologia no policiamento e pode influenciar pares da indústria, pelo menos nos EUA. No entanto, existem pequenas e médias empresas dedicadas somente ao desenvolvimento de sistemas como esse – sem contar que a China já emprega a tecnologia amplamente e companhias do país a vendem ao redor do mundo.