O sistema de reconhecimento facial que será implementado no Metrô de São Paulo não tem garantias de privacidade e segurança dos bancos de dados, de acordo com o entendimento de grupos de defesa dos direitos dos cidadãos após a obtenção de documentos apresentados em uma ação judicial.

A conclusão é do Instituto Brasileiro de Defesa do Consumidor (Idec), a Defensoria Pública do Estado de São Paulo, Defensoria Pública da União (DPU), Intervozes e ARTIGO 19, com apoio do Coletivo de Advocacia em Direitos Humanos (CADHu).



O grupo moveu uma ação em fevereiro para cobrar provas (como documentos, relatórios e atas) do Metrô de São Paulo, logo depois de serem anunciados os vencedores de uma licitação de R$ 58,6 milhões para a instalação de câmeras e sistemas de reconhecimento facial que pode atingir cerca de 3,7 milhões de passageiros diariamente.

Quando o edital foi anunciado, o metrô disse que o sistema contaria com reconhecimento facial, identificação e rastreamento de objetos e detecção de invasão de áreas para as linhas 1-Azul, 2-Verde e 3-Vermelha. O vencedor do edital foi o consórcio Engie Ineo Johnson, formado por empresas da França e Irlanda.

Em 28 de abril, o o Metrô apresentou apenas os documentos que nortearam a licitação. De acordo com um comunicado das instituições, os papéis revelam que não foram atendidos “requisitos básicos para garantir a segurança na governança dos dados a serem coletados e armazenados, a privacidade dos usuários e a proteção de crianças e adolescentes”.

Além disso, a licitação não realizou um estudo para levar em consideração o impacto financeiro em caso de vazamentos.

Para as signatárias da ação, ficou provado que o Metrô pode implementar um sistema ineficiente e perigoso, sem ter adotado precauções necessárias para evitar violações ao direito à privacidade. O grupo disse que vai defender na Justiça os interesses de todos usuários do Metrô.

O Metrô de São Paulo disse, em nota ao Gizmodo Brasil, que “esclareceu todos os questionamentos e obedeceu aos requisitos legais para a implantação do Sistema de Monitoramento Eletrônico, que tem o objetivo claro de modernizar o atual circuito interno.”

“O sistema foi contratado para o monitoramento com câmeras que têm recursos de inteligência para apoio as ações operacionais e não para o reconhecimento de dados pessoais. A Lei Geral de Proteção de Dados (LGPD) foi o molde desse projeto que não utilizará banco de dados com informações pessoais e nem registrará informações personificadas, tendo como prioridade o aumento da segurança dos 4 milhões de passageiros do Metrô”, completa a nota.

Uso de reconhecimento facial pelo Estado

Neste mês, grandes empresas americanas que pesquisam e desenvolvem sistemas de reconhecimento facial anunciaram a saída do mercado ou a paralisação do fornecimento das tecnologias para entidades governamentais.

A IBM explicou a saída alertando para os riscos de violações à privacidade e destacou os riscos da aplicação da tecnologia pela polícia e outros órgãos de aplicação da lei. Já a Amazon anunciou uma moratória de um ano para o uso do seu sistema Rekognition – tempo que a empresa considera o suficiente para que entidades dos EUA regulem o uso da tecnologia por forças policiais e de aplicação da lei. A Microsoft também anunciou medidas similares às da Amazon.

A medida das grandes empresas servem mais como um alerta sobre os potenciais riscos relacionados ao uso de sistemas de reconhecimento facial, principalmente por entidades do Estado. Elas podem servir como exemplo, mas existem pequenas e médias empresas dedicadas somente ao desenvolvimento de sistemas como esse. Além disso, a China já emprega a tecnologia amplamente, e companhias do país a vendem ao redor do mundo.

As principais preocupações em relação ao uso da tecnologia está no reforço de injustiças. Sistemas de reconhecimento facial são treinados para identificar rostos com o uso de inteligência artificial e machine learning – basicamente, para que a máquina aprenda a identificar um rosto, é preciso incluir milhares de imagens e “ensiná-la” a distinguir características faciais, como distância entre os olhos ou tamanho do nariz. Estudos mostram que os algoritmos podem apresentar taxas de falsos positivos ou falsos negativos, em grande parte com números exagerados para determinados grupos mal representados no treinamento da máquina, como negros ou asiáticos – dependendo da empresa que os desenvolve.

A noção de que as máquinas são “neutras” e “não erram” também abre espaço para abusos no uso do reconhecimento facial. Se sistemas forem utilizados como evidência, é menos provável que uma pessoa inocente consiga provar que não é ela naquelas imagens.

A linha entre o uso dos sistemas de reconhecimento facial para segurança pública e para a vigilância permanente da população e a perseguição de determinados grupos étnicos é tênue.

O metrô não seria o primeiro ente governamental de São Paulo a utilizar sistemas de reconhecimento facial. Em janeiro deste ano, o governador João Doria (PSDB) anunciou que a Polícia Civil de São Paulo passaria a utilizar a tecnologia, por exemplo. Há várias cidades e estados no Brasil que já empregam os sistemas.