Negra, grávida de 8 meses é presa após erro de de reconhecimento facial
Um sistema de reconhecimento facial identificou equivocadamente uma mulher grávida de oito meses como suspeita de assalto e roubo de carro. O caso aconteceu em Detroit, cidade do estado de Michigan, nos Estados Unidos, e trouxe de volta debates a respeito do uso da tecnologia de reconhecimento facial na segurança pública.
Porcha Woodruff, esteticista de 32 anos, foi surpreendida pela polícia e detida enquanto preparava as filhas para a escola. A mulher ficou aproximadamente 11 horas prestando esclarecimentos sobre um crime ocorrido na região e só foi liberada após o pagamento de uma fiança de US$ 100 mil, o que dá aproximadamente R$ 487 mil em conversão direta.
Segundo o Washington Post, imagens da suspeita, capturadas por câmeras de monitoramento, foram combinadas com uma foto de Porcha tirada em 2015, quando foi levada sob custódia por dirigir com habilitação vencida.
Durante o período que passou no departamento policial, Woodruff relatou que sentia fortes dores nas costas e contrações muito intensas. Além disso, a mulher sofreu com atques de pânico ocasionados pela situação. Ao deixar o local, a gestante precisou ser encaminhada para um hospital.
Após o ocorrido, a mulher entrou com uma ação na justiça contra a cidade de Detroit sob a acusação de prisão indevida e violação da 4ª Emenda da Constituição dos EUA, que proíbe operações de busca e apreensão sem que haja a expedição de um mandado judicial.
O grande problema é que este é o sexto caso de identificação equivocada pelo sistema de reconhecimento facial na cidade. O detalhe mais preocupante é que todas as pessoas apontadas como suspeitas de forma incorreta são negras, o que aumenta ainda mais o alerta em torno desta tecnologia.
A tecnologia é frequentemente vista como uma solução milagrosa para auxiliar autoridades policiais na identificação de suspeitos de crimes ou na busca por foragidos da justiça. No entanto, um fator que é frequentemente negligenciado é a taxa de acurácia, ou seja, o nível de acerto dos modelos de IA.
Não é de hoje que especialistas e organizações da sociedade civil alertam sobre os perigos dos vieses que sistemas de reconhecimento facial podem carregar. Alguns pesquisadores defendem que o uso como ferramenta de segurança pública pode ser extremamente prejudicial para pessoas negras.