Pesquisadores da Universidade de Chicago, nos Estados Unidos, desenvolveram uma nova IA (Inteligência Artificial) que promete prever crimes com uma precisão entre 80% e 90%. O assunto gerou polêmica por parte de alas da sociedade que questionam essa eficácia.
Segundo o estudo, publicado na Nature, essa tecnologia tem a função de otimizar políticas públicas e alocar recursos para áreas que mais precisam de assistência policial. O modelo preditivo de IA já foi testado em oito grandes cidades dos EUA, incluindo Chicago.
O algoritmo funciona a partir do histórico de crimes de uma determinada cidade. Tendo como base registros de eventos disponíveis em domínio público, o sistema analisa o tipo de crime, onde aconteceu, assim como data e hora. Em seguida, a IA usa aprendizado de máquina para gerar séries temporais e prever onde e quando esses crimes ocorrem com maior frequência.
O modelo pode informar, por exemplo, “provavelmente haverá um assalto à mão armada nesta área específica, neste dia específico”. Porém, isso não significa necessariamente que esse crime ocorrerá de fato.
Inteligência artificial imita a arte
Na ficção científica, a capacidade de prever crimes antes que eles aconteçam foi abordada no filme “Minority Report” – estrelado por Tom Cruise e dirigido por Steven Spielberg.
No longa-metragem de 2002, pessoas eram colocadas na prisão antes mesmo delas cometerem crimes, a partir de um sistema policial batizado de “Pré-crime” – que utiliza uma mistura de tecnologia e paranormalidade para prever e evitar assassinatos. No sistema preditivo ficcional, o suspeito é preso quando ele já está próximo ao local do crime, segundos antes dele cometer o homicídio.
Porém, na vida real, o professor Ishanu Chattopadhyay — o pesquisador líder do estudo — explica que o algoritmo desenvolvido não tem a capacidade de identificar pessoas que vão cometer crimes ou a mecânica exata desses eventos. A IA prevê apenas os locais que são mais propensos a acontecer crimes.
Segundo Chattopadhyay, a IA pode ser um aliado para a polícia, pois permite otimizar a logística do policiamento, permitindo intensificar a fiscalização em locais mais propensos a ocorrerem crimes. Ele diz que o sistema não será mal utilizado.
“Meus companheiros e eu temos falado muito que não queremos que isso seja usado como uma ferramenta de política puramente preditiva. Queremos que a otimização de políticas seja o principal uso dele”, disse o pesquisador à BBC.
Repercussões
Porém, conforme lembrou o site IFLScience, algoritmos anteriores já tentaram prever comportamentos criminosos, incluindo a identificação de potenciais suspeitos. O software, claro, foi duramente criticado, por ser tendencioso, não ser transparente, além de gerar preconceito racial e socioeconômico.
Um grupo com mais de mil especialistas de diversas áreas assinaram uma carta aberta afirmando categoricamente que esses tipos de algoritmos não são confiáveis e trazem muitas suposições problemáticas.
Nos EUA, por exemplo, onde as pessoas de cor são tratadas com mais severidade do que os brancos, esse comportamento poderia gerar dados distorcidos, com esse preconceito também sendo refletido na IA.
Como bem demonstrou o filme de Spielberg, o uso de grandes bases de dados para prever crimes pode gerar não apenas benefícios, mas também muitos malefícios.