Policiais de Dallas, no estado do Texas, nos EUA, usaram um software de reconhecimento facial não autorizado para realizar entre 500 e 1 mil buscas na tentativa de identificar pessoas com base em fotografias. Um porta-voz da polícia local disse que as buscas nunca foram autorizadas pelo departamento e que, em alguns casos, os policiais instalaram o sistema por conta própria em seus smartphones pessoais.

Melinda Gutierrez, porta-voz do Departamento de Polícia de Dallas, disse que a organização tomou conhecimento do assunto pela primeira vez depois de ser contatada por repórteres do BuzzFeed News. Segundo Gutierrez, o uso do aplicativo de reconhecimento facial, conhecido como Clearview AI, não foi aprovado “para uso por qualquer membro do departamento”.

Logo ao descobrirem o caos, líderes do departamento ordenaram que o software fosse excluído de todos os dispositivos cedidos pela cidade. No entanto, os oficiais não estão totalmente proibidos de utilizar o sistema da Clearview AI. Nenhuma ordem foi dada para excluir cópias do aplicativo instaladas em telefones pessoais. “Eles foram apenas instruídos a não usar o aplicativo como parte de suas funções de trabalho”, disse Gutierrez.

Questionada sobre o ocorrido, a Clearview AI não respondeu se havia revogado o acesso para oficiais cujos departamentos afirmam que seu uso não é autorizado.

O Departamento de Polícia de Dallas afirma que nunca firmou contrato com a Clearview AI. Mesmo assim, os oficiais ainda conseguiam baixar o app ao acessar o site da empresa. De acordo com o BuzzFeed, os que se inscreveram para um teste gratuito disponibilizado há algum tempo não eram obrigados a provar que estavam autorizados a usar o software. Além disso, e-mails obtidos pelo BuzzFeed mostram que o CEO da Clearview AI, Hoan Ton-That, não se opõe a permitir que os policiais se inscrevam usando contas de e-mail pessoais.

Durante uma revisão interna, os oficiais de Dallas disseram aos superiores que conheceram a tecnologia da Clearview a partir de conversas com outros policiais.

Problema generalizado

Na última terça-feira (6), o BuzzFeed News revelou que o Clearview AI estava sendo usado em Dallas após uma investigação de um ano sobre a empresa. O Departamento de Polícia de Dallas é apenas uma das 34 agências dos EUA a reconhecer que os funcionários usaram o software sem aprovação. Utilizando dados fornecidos por uma fonte confidencial, os repórteres descobriram que quase 2 mil órgãos públicos americanos usaram a ferramenta de reconhecimento facial.

Quase 280 agências disseram aos repórteres que os funcionários nunca haviam usado o sistema, e 69 deles se retrataram posteriormente. Quase 100 pessoas se recusaram a confirmar o uso do Clearview AI, e mais de 1.160 organizações não responderam sobre o caso.

Dados do BuzzFeed entre os anos de 2018 e 2020 também mostram que a Divisão de Segurança de Dallas, que supervisiona a segurança na Prefeitura, conduziu entre 11 e 50 buscas usando a plataforma da Clearview. Um porta-voz disse que a divisão não tem registro de uso do software.

O prefeito da cidade de Dallas, Eric Johnson, também não respondeu a solicitações enviadas por e-mail. Um vereador disse que precisava de tempo para revisar o assunto antes de falar oficialmente.

Assine a newsletter do Gizmodo

Tudo (quase) novo

O uso indevido de bancos de dados policiais confidenciais não é algo inédito. Em 2016, a Associated Press descobriu relatórios de policiais acessando regularmente bancos de dados de aplicação da lei para recolher informações sobre “parceiros românticos, parceiros de negócios, vizinhos e jornalistas por motivos que nada têm a ver com o trabalho diário da polícia”.

Entre 2013 e 2015, a AP encontrou pelo menos 325 incidentes de policiais demitidos, suspensos ou forçados a renunciar por abusar do acesso a esses bancos de dados. Em outros 250 casos, os oficiais receberam advertências ou enfrentaram punições mais brandas.

Atualmente, o reconhecimento facial é considerado uma das tecnologias mais controversas utilizadas pela polícia. A União Americana pelas Liberdades Civis (ACLU) pressionou legisladores federais a impor regras mais rígidas quanto ao uso da tecnologia em todo o país, citando vários estudos que mostram que o software é sujeito a erros, especialmente em casos que envolvem pessoas de pele mais escura.

Um estudo de 189 sistemas de reconhecimento facial realizado por uma filial do Departamento de Comércio dos EUA, em 2019, descobriu que pessoas de ascendência africana e asiática são identificadas incorretamente por softwares de inteligência em uma taxa 100 vezes maior do que indivíduos brancos. A proeminência é ainda maior entre mulheres e idosos, que correm o risco de serem identificados incorretamente.

O próprio chefe da polícia de Detroit estimou que um sistema usado na cidade era impreciso em “96% das vezes”.

A Clearview AI, que é conhecida por ter retirado bilhões de imagens de pessoas das redes sociais sem autorização dos usuários ou consentimento das plataformas, tem afirmado repetidas vezes que seu software é livre de preconceitos e ajuda a “prevenir a identificação errada de pessoas de cor”. Ton-That, CEO da companhia, disse ao BuzzFeed que “testes independentes” mostraram que seu produto não é tendencioso. Contudo, ele também ignorou vários pedidos de mais informações sobre esses supostos testes.

Em 2019, mais de 30 organizações com um total de 15 milhões de membros exigiram a legisladores dos EUA a proibição permanente da tecnologia, dizendo que nem com uma grande quantidade de diretrizes regulatórias seria possível proteger adequadamente os americanos de violações persistentes das liberdades civis.