_Amazon

Amazon suspende uso do seu software de reconhecimento facial pela polícia durante um ano

A Amazon anunciou que entidades policiais não poderão utilizar a sua plataforma de reconhecimento facial Rekognition durante um ano. A moratória imposta pela companhia acontece dois dias depois de a IBM anunciar que não iria mais desenvolver, pesquisar e vender tecnologias de reconhecimento facial.

Crédito: David Ryder/Getty

A Amazon anunciou que entidades policiais não poderão utilizar a sua plataforma de reconhecimento facial Rekognition durante um ano. A moratória imposta pela companhia acontece dois dias depois de a IBM anunciar que não iria mais desenvolver, pesquisar e vender tecnologias de reconhecimento facial citando pesquisas que mostram vieses de discriminação e riscos de violações à privacidade.

Em um comunicado, a Amazon disse que “defende que governos criem regulamentações mais fortes para reger o uso ético da tecnologia de reconhecimento facial e, nos últimos dias, o Congresso pareceu pronto para assumir esse desafio. Esperamos que esta moratória de um ano possa dar ao Congresso tempo suficiente para implementar regras apropriadas, e estamos prontos para ajudar se solicitado.”

Nesse mesmo comunicado, a companhia afirma que vai continuar permitindo que organizações dedicadas a encontrar crianças desaparecidas e de combate ao tráfico humano utilizem o seu software.

Pesquisas sobre sistemas de reconhecimento facial apontaram que há grandes chances de a tecnologia reforçar injustiças e atingir minorias. Alguns estudos analisaram especificamente o software da Amazon – um deles, publicado em 2019 e realizado pelas pesquisadoras Joy Buolamwini, do MIT Media Lab, e Deborah Raji, do AI Institute, descobriu que o Rekognition tinha problemas significativos ao identificar o gênero de pessoas negras.

O Verge lembra que a Amazon tentou relativizar essas descobertas, mas diversos pesquisadores da área de inteligência artificial assinaram uma carta aberta afirmando que o Rekognition tinha falhas e que não deveria estar nas mãos de forças de aplicação da lei.

Em 2018, a ONG União Americana pelas Liberdades Civis (ACLU, na sigla em inglês) mostrou que o software Rekognition, da Amazon, errou na identificação de 28 membros do Congresso dos EUA, ligando eles a fotos de arquivos policias. A empresa deu uma resposta atrapalhada.

Apesar dessas pesquisas, a Amazon não deixou de vender o seu software para departamentos policiais. A companhia também não tem uma grande presença no setor – até o ano passado, somente dois departamentos utilizavam ativamente o sistema.

No final das contas, a moratória da Amazon parece mais uma tentativa de passar uma boa imagem à luz dos protestos após a morte de George Floyd e as questões sobre a desigualdade racial e sobre uma possível reforma policial nos EUA. O caso da IBM é parecido: o negócio de reconhecimento facial não é um dos principais setores de atuação, nem gera receitas significativas para a empresa.

Outras empresas como Google e Microsoft tinham anunciado, antes mesmos dos protestos, que iriam se retirar pelo menos temporariamente do fornecimento de sistemas de reconhecimento facial.

Apesar da saída das chamadas bigtechs, existem pequenas e médias empresas dedicadas somente ao desenvolvimento de sistemas como esse – sem contar que a China já emprega a tecnologia amplamente, e companhias do país a vendem ao redor do mundo.

Uma das principais fornecedoras desses sistemas para departamentos de polícia nos EUA é a Clearview AI, que coletava imagens pela internet sem o consentimento das pessoas. A companhia enfrenta uma série de processos sobre privacidade, mas não deve arredar o pé.

Em um comunicado ao Verge, o CEO da Clearview AI, Hoan Ton-That reforçou que a tecnologia é uma ferramenta efetiva: “Enquanto Amazon, Google e IBM decidiram sair do mercado, a Clearview AI acredita na missão de usar de forma responsável o reconhecimento facial para proteger crianças, vítimas de fraudes financeiras e outros crimes que afligem nossa comunidade.”

A noção popular de que as máquinas são “neutras” e “não erram” também abre espaço para abusos no uso do reconhecimento facial. Uma vez que esses sistemas são utilizados como evidência, é menos provável que uma pessoa inocente consiga provar que não é ela naquelas imagens.

A linha entre o uso dos sistemas de reconhecimento facial para segurança pública e para a vigilância permanente da população e a perseguição de determinados grupos étnicos é tênue. Há preocupações em outros países, como na Índia, onde os sistemas estão se ampliando rapidamente e há uma divisão forte entre religiões e etnias.

Sair da versão mobile