O último avanço da inteligência artificial na tecnologia de câmeras corporais não chega perto de aumentar a responsabilidade ou a transparência da polícia. Conforme a pressão do público pelas câmeras corporais – que acompanhariam os policiais – morreu, as empresas de tecnologia agora estão criando seu próprio apelo para as câmeras para os departamentos de polícia que as comprem: oferecendo equipamentos de vigilância mais claros e inteligentes.

• Cientistas estão transformando roteadores Wi-Fi em radares
Tecnologia consegue simular perfeitamente o movimento labial e criar vídeos falsos



Na segunda-feira (17), a Motorola Solutions (sucessora legal da extinta Motorola, Inc.) anunciou uma nova parceria com a startup de aprendizado de máquina Neurala para usar a inteligência artificial de reconhecimento de objetos em suas câmeras corporais Si500. A tecnologia da Neurala apresenta capacidades avançadas de reconhecimento que dizem que poderiam ajudar os policiais a encontrar crianças desaparecidas ou suspeitos em geral. Civis ficaram imediatamente preocupados com a possibilidade de que isso seja usado para o reconhecimento de rostos, uma previsão há muito temida para a privacidade pessoal, em que os policiais poderiam verificar imediatamente a identidade de qualquer pessoa com que se deparassem, a qualquer momento. A Motorola e a Neurala negaram que a tecnologia seja usada dessa maneira, embora as preocupações ainda permaneçam.

Como o cofundador Max Versace explicou, a Neurala treinará seu software para reconhecer objetos usados pela pessoa suspeita ou desaparecida, não para encontrar o rosto delas. O reconhecimento de objetos e o reconhecimento do rosto representam graves preocupações de privacidade, mas não são iguais.

“Você está procurando uma criança com uma camisa azul, sapatos vermelhos, calças brancas e cabelos pretos. [A IA] pode aprender [isso] e então enviar notificações para todos os dispositivos”, disse Versace ao Gizmodo. “Ou, se você tiver uma imagem específica dessa pessoa usando esses itens, você pode fazer isso.”

Como Versace imagina, um pai poderia dar aos policiais uma foto de seu filho. A inteligência artificial então é treinada para reconhecer os objetos na foto, e uma atualização é enviada para todas as câmeras de segurança e câmeras corporais, para sinalizar esses objetos em tempo real.

“Você pode ter mil olhos à procura de um objeto em particular”, disse Versace.

Isso não é o mesmo que o reconhecimento de rosto, que é um processo em três etapas. Primeiro, a IA precisa escanear e medir seu rosto para calcular suas medidas exclusivas (a largura de seus olhos, o comprimento de sua testa etc) que compõem sua “impressão facial”. Essa impressão facial é comparada com um banco de dados de impressões faciais armazenadas, e o “reconhecimento” acontece se houver uma correspondência.

Os policiais têm acesso a milhões de impressões faciais porque elas são disponibilizadas a partir de documentos oficiais, como fotos de carteiras de motorista e passaportes. A Neurala diz que não vai verificar rostos ou combiná-los com bancos de dados e que, além disso, a maioria das crianças não está em nenhum banco de dados de identificação. Mas isso não significa que não há aspectos preocupantes sobre a proposta da empresa.

Como Versace explicou, a Neurala combinaria objetos em tempo real, exigindo que os policiais mantenham suas câmeras constantemente ligadas e digitalizando. Isso provavelmente vai fazer com que os especialistas em privacidade parem para pensar na situação, já que eles geralmente concordam que os policiais devem ser obrigados a: 1) informar as pessoas quando estão sendo gravadas; e 2) desligar as câmeras quando as pessoas pedirem. A maioria das pessoas gravadas por câmeras corporais sempre ligadas não será suspeita de qualquer crime, mas elas serão filmadas e analisadas, sem o seu conhecimento ou consentimento.

Além disso, os objetos que a polícia está procurando não são necessariamente neutros. Imagine um software de treinamento de policiais para marcar qualquer um que use um hijab ou uma burca. O reconhecimento de objetos pode automatizar o perfil direcionado, tornando mais fácil para os policiais supervisionar certas comunidades. Versace está ciente do potencial da inteligência artificial de ser mal utilizada, mas disse que não é da tecnologia que devemos desconfiar.

“Seres humanos são mais perigosos do que inteligência artificial”, afirmou Versace. “Deveríamos nos preocupar primeiro conosco e só então com a IA.”

Imagem do topo: Neurala