A Inteligência Artificial (IA) é o assunto do momento entre os mamutes tecnológicos. Apple, Facebook, Google, IBM, Microsoft e outros estão investindo pesado para vender a ideia de que redes de computadores poderão sozinhas entender nossas preferências e necessidades no mundo digital.

Por enquanto, há um foco muito grande em aplicações comerciais. Mas e se essa mesma tecnologia fosse empregada no mundo político, para detectar funcionários públicos propensos à corrupção? Para o pavor de agentes da política nacional, projetos do tipo já estão em curso – e isso pode abrir caminho para detectar políticos corruptos também.

As regras de segurança que Google e Microsoft criaram para a inteligência artificial
Google, inteligência artificial e privacidade

No Ministério da Transparência (antiga Controladoria Geral da União, ou CGU), um sistema de IA já consegue mapear o risco de servidores públicos federais se envolverem em casos de corrupção. O projeto da Diretoria de Pesquisas e Informações Estratégicas (DIE), que conta com a participação da Coordenação-Geral do Observatório da Despesa Pública e da Coordenação-Geral de Informações Estratégicas, tem um índice de acerto altíssimo.

Nos testes, os pesquisadores forneceram dados de servidores já expulsos da administração pública por corrupção. A ideia era saber se a IA conseguiria identificar aquilo que os olhos humanos já sabiam se tratar de laranjas podres na administração pública. O resultado é promissor: a máquina já é capaz de identificar 90% desses casos. Ou seja, de cada 10 servidores já flagrados como corruptos, a IA foi capaz de dizer que 9 deles tinham boas chances de serem corruptos mesmo. Conforme os ajustes são feitos, é possível que essa taxa de acerto continue subindo.

“Enquanto as grandes empresas de tecnologia estão preocupadas em descobrir o máximo possível sobre o gosto e o perfil de cada usuário para poder fornecer a melhor experiência possível e direcionar suas atividades de marketing, no Ministério da Transparência (CGU) buscamos conhecer o perfil dos servidores públicos que foram expulsos por corrupção para tentar prever quais, daqueles que estão na ativa, possuem um maior risco de se envolverem em corrupção, ou seja, quais possuem perfil semelhante àqueles dos servidores expulsos por corrupção”, explica Rommel Novaes Carvalho, coordenador-Geral do Observatório da Despesa Pública (ODP), ao Gizmodo Brasil.

Rommel Novaes Carvalho
Rommel Novaes Carvalho, à esquerda (Ministério da Fazenda)

A analogia mais comum para entender como funciona o projeto é lembrar das dolorosas vezes em que você teve que negociar o seguro de carro. Uma série de atributos, como idade, profissão e bairro de residência, fazem diferença no preço final. Assim, as seguradoras se baseiam em estatísticas na hora de cobrar pela proteção. Se você é universitário, molecão maroto, que deixa o carro na rua, vai sair mais caro. O número de batidas com pessoas do sexo masculino em idade baixa é alto.

No projeto da ODP, 18 bancos de dados fornecem 4,4 mil atributos únicos sobre os funcionários públicos. Quando combinadas, essas informações geram mais de 60 mil atributos, que são analisados, baseados em perfis já existentes, e determinam as chances de alguém se meter em falcatrua.

Seria impossível que apenas olhos humanos conseguissem sozinhos manter a vigilância com toda essa numeralha. Por isso, o projeto utiliza técnicas que são feijão com arroz para o Google e seus concorrentes. As palavrinhas estão na moda: big data, mineração de dados e “machine learning” (ou aprendizado de máquina).

Isso significa que um algoritmo vai analisar um gigantesco volume de dados e aprender, com base nos dados históricos e uso de estatística, quais são as características que aumentam ou diminuem a chance de uma pessoa ser expulsa da Administração Pública por motivos de corrupção. No final, há uma fórmula, com pesos diferentes para cada característica, que pode ser usada para calcular o risco de corrupção de qualquer servidor público.

Atualmente, os 18 bancos de dados somam juntos 500 GB, e, conforme mais informações ficam disponíveis, é possível que o número continue crescendo. Para processar tudo isso, a CGU montou um laboratório de Big Data com cinco servidores de 512 GB de RAM e 40 núcleos cada. O passo foi gigante: nos primeiros passos do projeto com automação, em 2013, era utilizado um desktop comum para dar conta de todos esses dados.

Os atributos utilizados para descobrir possíveis malandrões são mantidos em segredo, mas um deles é filiação partidária. Antes de continuar, um pequeno alerta: o modelo não leva em conta o histórico do partido. Então, Lava-Jato, roubo de merenda e outros esquemas não pesam. O que conta aqui é ser afiliado ou não a um partido – qualquer que seja – e o tempo de filiação partidária.

O resultado é surpreendente: “uma conclusão interessante da análise desses dados, e contrária ao esperado por alguns especialistas da área, é que quanto maior o tempo de filiação a um mesmo partido, menor o risco de corrupção”, explica Carvalho. Se você ficou curioso sobre o tema, vale ler essa pesquisa.

Num eventual mapeamento de políticos, é possível que a CGU não seja a responsável pelo sistema de IA, mas é importante notar que o modelo criado por ela pode ser aplicado em outras situações, não apenas no índice de risco de servidores públicos.

Ele também já foi utilizado para mapeamento de risco de fornecedores e contratos públicos. Ao invés de avaliar perfil de servidor, foram analisados os perfis dos fornecedores que foram punidos pelo governo e os perfis dos contratos que foram rescindidos por algum problema grave. Nos testes, os resultados também foram animadores: taxa de acerto de 85%. Assim, os contratos de fornecedores de Tecnologia da Informação (TI) já passaram pelo pente fino da IA.

Lavagem de dinheiro

receita federal trensurb
Foto por Lucas Quadros/Trensurb/Flickr

O mapeamento de risco é apenas um aspecto no qual o cérebro digital poderia incomodar políticos corruptos. E se esses caras fossem flagrados já em ação? A Receita Federal também está desenvolvendo alguns projetos promissores, entre eles um para detectar exportações fraudulentas utilizadas para lavagem de dinheiro. Claro, aqui qualquer dinheiro sujo, seja do tráfico de drogas ou de crimes do colarinho branco, poderia ser flagrado. Mas aqui também está grana desviada dos serviços públicos.

É fácil explicar como exportações mentirosas são usadas para lavar dinheiro. Suponha que um residente no Brasil, dono de uma empresa, possua dinheiro fora do Brasil proveniente de atividade criminosa e queira trazê-lo para o país com aparência de lícito. Ele poderia, por exemplo, encher um contêiner de lixo e despachá-lo para fora dizendo que este possui mercadorias no valor que ele pretende “lavar”. Em seguida, ele usaria seu próprio dinheiro sujo guardado na gringa para “pagar” a transação, permitindo que a grana entrasse com aparência lícita.

Vale lembrar que, logo após o escândalo das contas na Suíça, Eduardo Cunha alegou que parte do dinheiro tinha origem na exportação de carne enlatada exportada na década de 1980, o que para a tropa da Lava-Jato não passa de uma grande balela.

Para identificar essas transações criminosas, a Receita está aprendendo como aplicar em redes neurais de computador uma técnica chamada AutoEncoder. “O AutoEncoder está presente em muitas aplicações nas quais é preciso descobrir uma anomalia, mas que não temos uma referência do que é anômalo”, diz Ebberth Lopes de Paula, auditor fiscal da Receita Federal e pai do projeto.

Pense no cara do correio que tem que ler os números de CEP. Ele espera encontrar sempre um conjunto de dígitos numéricos (0, 1, 2, 3…) distribuído em oito espaços. Se aparecer uma letra, um símbolo matemático ou um garrancho, ele imediatamente identifica que há uma anomalia, pois não era para ter aquilo ali no campo de CEP. E não interessa o motivo para essa anomalia ter aparecido. O AutoEncoder funciona de maneira parecida: tenta sozinho, sem o humano dar exemplo nenhum, identificar padrões de relação e expor anomalias.

“Na minha pesquisa, a parte fora dos padrões é a que interessa. Por algum motivo, alguns dados que possuímos (que podem ser os dados de uma empresa ou de uma transação ou de um estabelecimento) se desviam do padrão dos demais. E merecem uma análise mais acurada. Uma vez treinada a nossa rede, novos dados podem ser submetidos a ela e verificado se eles também apresentam desvios. Se apresentarem desvios significativos, estes serão objeto de análise”, explica o auditor. Em outras palavras, se uma empresa com cinco funcionários estiver exportando R$ 200 milhões por mês, a máquina vai olhar com carinho para essa situação.

Infelizmente, esse projeto foi usado apenas em estágio experimental, e não sabemos se um dia poderá virar realidade dentro da Receita. Mas o fato é que o órgão está estudando diferentes maneiras de utilizar IA contra fraudes, como este que utiliza redes Bayesianas Hierárquicas.

E os políticos?

Com este projeto de combate à corrupção via IA, já é possível imaginar um cenário ao estilo “Minority Report”, em que redes de computadores seriam capazes de apontar quais os candidatos mais propensos a botar a mão na grana pública.

E se a IA conseguisse prever antes das eleições quais políticos teriam mais chances de se envolver em casos de corrupção? Imagine se você digitasse o número do candidato na urna e saltasse na tela “fulano tem 83% de chances de se meter em corrupção”. Você meteria o dedão no botão verde? Claro, seria necessário percorrer um longo caminho para isso se tornar realidade; mas, tecnicamente o mapeamento de risco de políticos não é papo apenas de filme de ficção científica.

No entanto, nem sempre esses sistemas tomam as decisões mais sensatas. Lembra quando o Google começou a classificar fotos de pessoas negras como se fossem macacos? E aquela vez que o bot da Microsoft começou a fazer declarações nazistas no Twitter?

“Há casos não tão simples [de uso de IA], que tem desdobramentos tanto na filosofia moral quanto na filosofia do direito e na hermenêutica das normas. A identificação de corrupção no particular, e a identificação de crimes no geral, se enquadram aí”, afirma Lopes de Paula.

Com tantos casos de corrupção envolvendo figuras graúdas sendo desvendados, o clima atual no Brasil é de total aversão a ladrões do dinheiro público. Obviamente, a reação imediata diante de projetos contra a corrupção é apoiá-los integralmente. A IA, porém, acrescenta uma camada de complexidade a isso, e levanta questões importantes.

“O mapeamento de risco de políticos seria polêmico, pois de largada já quebraríamos o pressuposto de que todo mundo é inocente até que se prove o contrário. Se fizermos isso para políticos, tenho certeza de que faríamos isso na seleção de emprego para julgar certos tipos de atitudes de candidatos. Acho que tem um problema de fundo ético/filosófico importante aí ao melhor estilo Minority Report. Mas é um excelente ponto de discussão”, diz Max Stabile, cientista político e diretor-executivo do IBPAD (Instituto Brasileiro de Pesquisa e Análise de Dados).

E o que traz complexidade não é apenas o fato de uma máquina participar ativamente da vigilância de humanos, afinal a IA também pode cometer deslizes bizarros como vimos nos exemplos do Google da Microsoft. O problema é que o ponto fraco dos projetos de IA é que, invariavelmente, ela depende de algum elo humano.

Para a IA “pensar”, ela precisa de dados confiáveis, normalmente coletados ou armazenados por humanos. “Quando ensinamos essas técnicas de mineração de dados e aprendizagem de máquina, sempre apresentamos uma máxima para os alunos: “garbage in, garbage out”, ou seja, se alimentar apenas “lixo” para a máquina, ela só será capaz de gerar “lixo” na saída”, explica Carvalho. Sabemos que nem sempre dados confiáveis estão disponíveis. Stabile, por exemplo, conta que já ouviu reclamações de colegas pesquisadores que supostamente não conseguem junto ao Ministério da Saúde dados sobre o zika nos municípios.

RN-Dinheiro-20150209-7-850x570
Foto por Rafael Neddermeyer/Fotos Públicas

Para os gigantes da tecnologia, como o Google, é mais fácil vender a ideia de que IA consegue operar sozinha. Afinal, os dados que eles recebem são mais confiáveis. No fim das contas, você oferece informações pessoais em troca da conveniência de ter a interação com o mundo digital mediada por um assistente eficiente. Quando o sistema depende de informações colhidas em diferentes órgãos do governo, muita coisa pode dar errado. Informações podem estar faltando, campos podem estar preenchidos de maneira errada e por aí vai.

Carvalho diz: “Vale ressaltar que a dificuldade [para IA mapear políticos] seria na obtenção de uma quantidade mínima de dados para que seja possível identificar padrões. Indo ao extremo, poderíamos aplicar essa mesma técnica para identificar o risco de atentado terroristas, por exemplo. No entanto, apesar de parecer que temos muito atentados, felizmente, eles não ocorrem com frequência o suficiente para possibilitar a identificação de padrões com uma taxa de acerto confiável”. Em outras palavras, apesar de termos a sensação de que nunca na história desse país roubou-se tanto, os casos desvendados ainda não se acumularam ao ponto de permitir a detecção de padrões.

Além disso, a definição de quais atributos pesariam na fórmula final para definir o perfil do corrupto também passa pelo trabalho humano. O projeto do ODP começou em 2012, mas foi apenas no ano passado que passou para o estágio no qual a IA faz o serviço. Antes disso, a equipe passou muito tempo discutindo quais atributos pesavam no perfil de um servidor corrupto.

Outro ponto de discussão certamente ficaria em torno de quem aplicaria o algoritmo de mapeamento, um tópico que reúne também todas as nuances e subjetividades próprios do ser humano. “Acho que seria sim, possível, criar perfis automatizados e outros métodos de eleição, mas ainda fico aqui me perguntando: mas quem define o algoritmo? Essa escolha não é simplesmente ‘racional’, ela é – com o perdão da palavra – ‘política’”, afirma Stabile. Mesmo com as notícias de o sistema de IA do Google já consegue transmitir memória para outras máquinas, em algum ponto elas dependem de uma ajuda humana.

De qualquer maneira, algumas ações mais simples, não tão dependentes em grandes volumes de dados, para o combate à corrupção também podem ajudar a fiscalizar e conscientizar sobre o uso de dinheiro público. Iniciativas como o observatório de gastos públicos vêm ganhando força (embora, vale sempre lembrar que esses também dependem de disponibilidade e qualidade de dados).

Porém, mesmo com a ajuda de redes neurais, análises estatísticas, mineração de dados, aprendizado de máquina e outras técnicas complexas, o que conta é o poder de escolha do cidadão. O cérebro artificial apenas oferece informações para a tomada de decisões, que nem sempre são acertadas. “Hoje nós sabemos que tem uma turma bem corrupta e denunciada se elegendo constantemente, né? Não precisou de IA para detectá-los”, diz Stabile.

Primeira foto por Rafael Neddermeyer/Fotos Públicas