Há cada vez menos coisas que os algoritmos não conseguem fazer — incluindo mandar você para a cadeia. Agora, pesquisadores da China dizem ter desenvolvido uma inteligência artificial capaz de ser usada como promotora em tribunais.

Como reportou o jornal South China Morning Post, de Hong Kong, a nova IA pode analisar verbalmente denúncias, julgar se alguém é culpado ou inocente e imputar penas para até oito crimes.

A inteligência artificial foi desenvolvida e testada pela Procuradoria do Distrito de Pudong, em Xangai — a maior e mais movimentada do país. Um artigo que descreve a ferramenta foi publicado na revista científica Management Review  este mês.

Já existiam na China, pelo menos desde 2016, ferramentas de IA usadas com aplicações jurídicas. Mas, até agora, nenhuma delas conseguia “participar do processo de tomada de decisões fazendo coisas como o arquivamento de acusações e a imputação de sentenças”, disse Shi Yong, pesquisador que liderou o estudo ao South China Morning Post.

O procurador-robô é um programa que pode ser executado em um computador comum. A cada suspeito, a IA pode criar uma sentença baseada em 1000 “traços” que podem ser extraídos do texto-base da acusação.Para funcionar dessa forma, o algoritmo foi treinado a partir de mais de 17 mil casos entre 2015 e 2020.

Ela consegue analisar casos e condenar suspeitos de até oito crimes, como fraude de cartão de crédito, direção perigosa, obstrução de justiça e furto, por exemplo. A eficácia estimatida pelos cientistas é de até 97%.

Ainda que o número seja impressionante, ainda há certa resistência por parte dos juristas quanto à tecnologia. Tudo porque, bem, 97% não é 100% — e, nessas, alguém inocente pode ser injustamente condenado.

Tem outra: confiar em uma tecnologia que é falha (ainda que por uma margem pequena), pode prejudicar a credibilidade de um tribunal. Por isso, acreditasse que a ferramenta possa assumir um papel de acessório, orientando promotores e juízes na hora de decidir — e garantindo um mesmo padrão de sentença.

 

based on 1,000 “traits” obtained from the human-generated case description text, most of which are too small or abstract to make sense to humans. System 206 would then assess the evidence.