Reconhecimento facial usado pela polícia do País de Gales tem 90% de falso positivo
Milhares de pessoas que foram assistir a final da Champions League em 2017 em Cardiff, no País de Gales, foram identificados incorretamente como potenciais criminosos pela tecnologia de reconhecimento facial utilizada pelas autoridades locais.
• Fugitivo é preso na China depois de ser identificado por IA em uma multidão de 60 mil pessoas
• Pesquisadores querem usar inteligência artificial para “prever” se um crime é ligado a gangues
De acordo com o Guardian, a polícia de Gales do Sul escaneou uma multidão de mais de 170 mil pessoas que viajaram para a capital do país para assistirem a partida entre Real Madrid e Juventus. As câmeras identificaram 2.470 pessoas como criminosas.
Ter a presença de tantos infratores em potencial pode fazer sentido se o evento fosse, digamos, uma convenção de condenados, mas parece um número muito alto para uma partida de futebol. Acontece que as câmeras eram agressivas demais ao tentar encontrar criminosos.
Dos potenciais infratores identificados, 2.297 foram classificados erroneamente pelo software de reconhecimento facial. Isso se traduz em uma taxa de 92% de falso positivo.
A Wired obteve dados adicionais sobre o sistema utilizado no País de Gales e descobriu que ele tem sido consistentemente ruim. Em uma partida de futebol na véspera do Natal, as câmeras produziram uma taxa de 90% de falso positivo. Em uma partida de rúgbi, 87% dos supostos criminosos foram falsamente identificados.
O departamento do polícia de Gales do Sul, por sua vez, defendeu a tecnologia e enviou o seguinte comunicado sobre o uso de ferramentas de reconhecimento facial:
É claro que nenhum sistema de reconhecimento facial é 100% preciso sob todas condições. Problemas técnicas são normais em todos os sistemas de reconhecimento facial, o que significa que falsos positivos vão continuar a ser um problema comum no futuro próximo. No entanto, desde que introduzimos a tecnologia de reconhecimento facial, nenhum indivíduo foi preso em uma situação na qual um falso positivo levou a uma intervenção e o público também não apresentou reclamações.
De acordo com o departamento, já foram registrados dois mil alertas positivos desde que o País de Gales começou a usar a tecnologia, há nove meses. Essas leituras positivas resultaram em mais de 450 prisões.
Matt Jukes, comandante policial em Gales do Sul, disse à BBC que escaneamentos faciais são essenciais para operações, especialmente em grandes eventos. “Precisamos usar a tecnologia quando temos dezenas de milhares de pessoas nessas multidões, para proteger todo mundo. E estamos obtendo resultados ótimos com ela”, disse.
Embora pareça que Gales do Sul seja criteriosa na análise dos alertas feitos por suas câmeras de segurança já que não prenderam ninguém por engano, é preciso questionar se a tecnologia realmente tem economizado o tempo das autoridades. Os escaners faciais identificaram incorretamente mais pessoas em um evento do que identificou corretamente indivíduos em nove meses. Mesmo que assumindo que o software produza resultados ligeiramente melhores em situações com menos aglomerações, uma taxa de 90% de falso positivo cria um trabalho extra para que as autoridades analise os casos e verifique a veracidade.
“Esses números mostram não só que o reconhecimento facial em tempo real é uma ameaça às liberdades civis, como é uma ferramenta de policiamento perigosamente imprecisa”, disse à Wired Silkie Carlo, diretora de direitos de privacidade do grupo Big Brother Watch. Ela disse que as estatísticas de Gales do Sul mostram que o software de reconhecimento facial “identifica incorretamente membros inocentes do público em uma taxa aterrorizante, enquanto há apenas um punhado de ocasiões em que tem ajudado no propósito genuíno de policiamento”.
A polícia insiste que as câmeras ajudam a facilitar o processo de identificação e economiza tempo, o que bem pode ser verdade. A tecnologia também transforma pessoas inocentes em suspeitos, sem que essas pessoas saibam, até que a polícia possam averiguar suas situações.
[The Guardian, Wired, BBC]
Imagem do topo: Getty