Os sistemas de monitoramento da China estão se tornando cada vez mais onipresentes e já somam mais de 200 milhões de câmeras. Embora uma situação como essa chegue a ser perturbadora, as coisas se tornam mais esquisitas quando as máquinas se atrapalham até nas tarefas mais simples.
• O sistema de ranqueamento social da China está próximo de se tornar uma terrível realidade em Pequim
• Província na China expõe em outdoors fotos e informações de cidadãos endividados
Na semana passada, o rosto de Dong Mingzhu — presidente de uma fabricante de ar condicionado na China — foi mostrado em um painel gigante na cidade de Ningbo, a maior cidade portuária do leste da província chinesa de Zhejiang, para envergonhá-la por descumprir leis de trânsito.
Zheijang é uma das províncias que empregou no ano passado a tecnologia de reconhecimento facial para humilhar cidadãos que atravessam fora da faixa, colocando as imagens dos infratores em painéis gigantes de LED. No entanto, as câmeras não captaram a infração de Mingzhu — eles identificaram o rosto dela em uma propaganda na lateral de ônibus, segundo reporta o SCMP (South China Morning Post).
Dong Mingzhu apareceu em “painel da vergonha” por atravessar fora da faixa; o sistema de reconhecimento facial, na verdade, captou a imagem dela numa propaganda num ônibus. Crédito: Weibo
A polícia de trânsito da cidade anunciou em uma postagem no Sina Weibo na quarta-feira passada que deletou a foto e que seu sistema de vigilância seria consertado para prevenir problemas futuros de identificação. E a Gree Electric Applicances, a companhia para a qual a Mingzhu trabalha, também publicou no Sina Weibo uma mensagem de agradecimento à polícia e pedindo para que as pessoas sigam as regras de trânsito.
Embora a polícia de trânsito aparentemente tenha sido rápida em reconhecer e solucionar o problema em seu sistema e a resposta da Gree tenha sido simpática, este incidente ainda sinaliza um problema evidente na adoção em massa de sistemas de reconhecimento baseados em inteligência artificial: a tecnologia ainda é falha.
Isso está longe de ser o primeiro incidente em que uma algoritmo não conseguiu detectar nuances do mundo humano, e, até o momento, nenhum sistema de inteligência artificial empregado massivamente provou ser perfeito.
Identificar erroneamente alguém que atravessou fora da faixa pois uma máquina confundiu uma pessoa com uma propaganda grudada em um ônibus não é perigoso em si, mas estes painéis não são a única forma de reconhecimento facial empregado na China. De fato, a empresa de pesquisa IHS Markit prevê que a China vai comprar mais de três quartos dos servidores feitos especificamente para buscar rostos em imagens de segurança, informa o New York Times.
“No passado, tudo era feito na base do instinto”, disse Shan Jun, vice-chefe de polícia da estação ferroviária de Zhengzhou, onde um policial identificou um contrabandista de heroína usando reconhecimento facial. “Se você deixava alguma coisa escapar, você perdia.”
As máquinas não são capazes de intuir, e, além de não saberem diferenciar sutilezas do mundo físico (como uma foto em uma propaganda comparada a uma pessoa real de carne e osso), elas não estão livres de enviesamento. É fácil imaginar como estas falhas podem dar errado, não só quando usadas para humilhar quem infringir leis de trânsito, mas também para classificar cidadãos socialmente ou identificar suspeitos de crimes.