O Big Brother São Paulo já começou e deve expandir. Em julho de 2019, o Metrô da capital paulista tinha anunciado um edital de licitação para a implementação de um sistema de “monitoração eletrônica por imagem para as linhas 1-Azul, 2-Verde e 3-Vermelha”. Pois bem, a licitação aconteceu e o consórcio Engie Ineo Johnson, formado por empresas da França e Irlanda venceu o contrato de R$ 58,6 milhões para implementar o sistema ao longo dos próximos anos.

Quando o edital foi anunciado, o metrô disse que o sistema contaria com reconhecimento facial, identificação e rastreamento de objetos e detecção de invasão de áreas. Agora, seis entidades de defesa de direitos do cidadão e do consumidor entraram com uma ação judicial questionando a licitação, afirmando que não houve debate público o suficiente para a adoção de uma tecnologia que pode ferir o direito constitucional de privacidade.

Em um comunicado à imprensa enviado pelo Idec (Instituo Brasileiro de Defesa do Consumidor), a entidade diz que o metrô não liberou estudos prévios de avaliação de impacto da implementação da tecnologia, nem dos riscos de usá-la no sistema de transporte coletivo.

A ação, movida pela Defensoria Pública do Estado de São Paulo, Defensoria Pública da União (DPU), Instituto Brasileiro de Defesa do Consumidor (Idec), Intervozes e ARTIGO 19, com apoio do Coletivo de Advocacia em Direitos Humanos (CADHu) quer saber:

[…] a forma como os dados pessoais dos usuários serão coletados e tratados pelo Metrô; as bases de dados utilizadas como referência; os protocolos de ação em caso de identificação de possível suspeito; quais são os requisitos de confiabilidade e segurança de informação utilizados e as iniciativas a serem tomadas para mitigação de riscos ligados ao vazamento de dados. Em resumo, a ação judicial busca informações consistentes sobre a adequação da iniciativa aos princípios estabelecidos pela Lei Geral de Proteção de Dados (LGPD), que entra em vigor em agosto deste ano.

O Idec diz ainda que após o anúncio do edital, no segundo semestre de 2019, notificou o metrô sobre essas, que não forneceu respostas satisfatórias.

Uma das preocupações das entidades é o eventual vazamento de informações, que poderia causar uma multa pesada na empresa que irá gerir os dados. O metrô, inclusive, não revelou qual será a base de dados utilizada para fazer as comparações dos rostos.

Em janeiro deste ano, o governador João Doria anunciou com a maior pompa que a Polícia Civil de São Paulo passaria a utilizar sistemas de reconhecimento facial. Na ocasião, o governo adotou cautela e disse que o recurso não seria “utilizado isoladamente como meio de prova” e que contaria com supervisão humana constante.

As principais preocupações em relação ao uso da tecnologia está no reforço de injustiças. O sistema de reconhecimento facial é treinado para identificar rostos por meio de inteligências artificiais e machine learning – para que a máquina aprenda a identificar um rosto, é preciso incluir milhares de imagens e “ensiná-la” a distinguir características faciais, como distância entre os olhos ou tamanho do nariz.

Estudos apontam que esses algoritmos podem apresentar taxas de falsos positivos ou falsos negativos muito grandes, em grande parte com números exagerados para determinados grupos mal representados no treinamento da máquina, como negros ou asiáticos – dependendo da empresa que os desenvolve.

As soluções utilizadas no Brasil já apresentaram erros, como em um caso no Rio de Janeiro em que uma mulher foi presa por engano em Copacabana.

Além disso, a linha entre o uso dos sistemas de reconhecimento facial para segurança pública e para a vigilância permanente da população e a perseguição de determinados grupos étnicos pode ser rompida a qualquer momento.