As câmeras de segurança com reconhecimento facial em Copacabana, no Rio de Janeiro, identificaram incorretamente uma mulher, que foi detida por engano pela PM.

O sistema, que usa inteligência artificial, alertou o Centro Integrado de Comando e Controle (CICC) e indicou que uma foragida da Justiça, condenada por espancar até a morte um homem, tinha sido localizada em Copacabana nesta terça-feira (9).

Cinco minutos depois, uma viatura cercou a mulher na Avenida Nossa Senhora de Copacabana, que foi levada para a 12ª DP. Ela foi liberada mais de uma hora depois, quando foi constatado que o sistema falhou – ela era uma moradora do bairro.

O sistema, que começou a ser instalado durante o Carnaval deste ano, tem sido ampliado: de acordo com a reportagem d’O Dia, desde domingo passado, a tecnologia, que tinha 9 câmeras, passou a contar com 25 unidades.

Não é a primeira vez que a tecnologia falha: a delegada Valéria Aragão, titular da 12ª DP, afirmou que durante o carnaval um erro similar aconteceu. “Mas isso mostra que estamos integrados e que todas as garantias do suspeito estão sendo observadas”, completou.

O porta-voz da PM, coronel Mauro Fliess, diz que quando o sistema aponta 70% de possibilidade da pessoa ser a procurada, uma viatura é direcionada ao local. Segundo ele, os policiais tentam checar a identificação da pessoa abordada no local, mas em casos de dúvida ou de homônimos, elas são levadas para a delegacia.

A polícia procurava Maria Lêda Félix da Silva, condenada em julho deste ano, junto com a companheira, Alexandra Toggnoc da Costa, a sete anos de prisão por homicídio e ocultação de cadáver. Elas foram acusadas de ter assassinado Wilson Toggnoc, genro de Alexandra, em junho de 2015.

A reportagem d’O Dia afirma que as pessoas podem ser indenizadas por serem conduzidas para a delegacia por engano e que há possibilidade dos policiais responderem por abuso.

A tendência, porém, é que casos como esse se amplifiquem, já que a tecnologia de reconhecimento facial está começando a ser adotada de forma maciça no Brasil.

Na semana passada, noticiamos por aqui que o metrô de São Paulo abriu uma licitação para a instalação de um circuito de segurança com reconhecimento facial. Sistemas similares também estão sendo testados em Campinas e Salvador.

Especialistas alertam para os potenciais riscos do emprego da tecnologia de reconhecimento facial. Pesquisadores já apontaram que algumas etnias têm mais chances de caírem em falsos positivos, especialmente mulheres negras. Em uma análise do classificador de gênero da Microsoft, foi identificada uma taxa de erro de 20,8% para mulheres de pele escura.

A reportagem d’O Dia não revela detalhes sobre a identidade da mulher detida por engano, o que não exclui o destaque para a vulnerabilidade de determinados grupos sociais em relação a essas tecnologias, consideradas solução mágica da segurança pública por muitos políticos.

No Reino Unido, um sistema desse tipo teve índice de erro de 92% durante a final da UEFA Champions League de 2017. Na China, onde a tecnologia é utilizada amplamente, reportagens denunciam que o governo chinês tem reprimido a minoria muçulmana uigure. Em Hong Kong, manifestantes se preocupam com a repressão da polícia a partir do uso de tecnologia.

Nos Estados Unidos, por outro lado, cidades estão discutindo a proibição definitiva de sistemas como esse. A maior fabricante de câmeras policiais anunciou que irá banir a tecnologia de reconhecimento facial por questões éticas.