Além da regulamentação às big techs, no PL das Fake News, o Brasil agora começa a discutir regras para a IA (inteligência artificial). Trata-se do projeto de lei 2.338/2023, protocolado pelo presidente do Senado, Rodrigo Pacheco (PSD), em 3 de maio.
O projeto se baseia em um relatório elaborado por 18 juristas entre fevereiro e dezembro de 2022. Coordenada pelo ministro Ricardo Villas Bôas Cuevas, do STJ (Superior Tribunal de Justiça), a comissão fundamenta a defesa da regulação em 40 artigos e 900 páginas de argumentação alinhadas com os princípios vistos na UE (União Europeia), OCDE e Unesco.
De modo geral, o texto traz conceitos e normas para orientar o desenvolvimento de tecnologias de IA no Brasil. O objetivo, segundo Pacheco, é estabelecer formas de proteger os usuários e criar ferramentas para supervisionar e fiscalizar a operação dessas plataformas.
Agora, a proposta passa pela análise nas comissões temáticas do Senado, especialmente a CCTI (Comissão de Ciência, Tecnologia, Inovação, Comunicação e Informática). Também é provável que a Mesa Diretora opte pela criação de uma comissão especial para discutir o tema. Até lá, entenda os detalhes da proposta.
O que diz o PL 2.338/2023
- Propõe a criação do Marco Regulatório das IAs no Brasil
- Cria normas gerais de uso e implementação, proteção dos usuários, direitos e deveres fundamentais e classificação de risco das plataformas. Também traz a definição de conceitos, designa uma autoridade para fiscalização e estabelece noções de transparência
- Substitui projetos anteriores de menor alcance (como os PLs 5.051/2019, 21/2020 e 872/2021)
Monitoramento antes de entrar no mercado
Define que toda a tecnologia de IA deverá passar por testes do órgão regulador antes de começar a operar no país. Somente as plataformas com registro poderão funcionar.
Proteção de dados
Plataformas de IA precisarão obedecer à LGPD (Lei Geral de Proteção de Dados) para funcionar no país. Isso significa que não poderão usar os dados dos usuários para outra finalidade que não a própria IA.
Classificação de risco
- Regra terá peso diferente (baixo, alto ou excessivo) de acordo com o risco envolvido nas plataformas de IA. As plataformas de “risco excessivo” estão proibidas.
- Haverão duas etapas de avaliação: primeiro pelo próprio fornecedor, depois pela autoridade competente
- Sistemas de “alto risco”: dispositivos que atuam na segurança e gestão de estruturas críticas. Exemplos: redes de abastecimento de água e energia, educação, recrutamento, triagem, sistemas de biometria e controle de trânsito
- Sistemas de “risco excessivo”: empregam tecnologias que podem induzir o usuário a colocar em risco sua própria vida e segurança, exploram vulnerabilidades de grupos específicos (como crianças) para induzir comportamentos prejudiciais ou usam o poder público para determinar o acesso de pessoas a bens, serviços e políticas públicas de forma desproporcional.
- É possível atualizar a classificação de risco das plataformas ao longo do tempo e da evolução das tecnologias
Direitos
Entre os direitos das pessoas afetadas por IA, o texto:
- obriga os criadores a dar explicações sobre como são tomadas as decisões das tecnologias
- exige que as plataformas possibilitem a contestação de “decisões automatizadas” com um pedido de intervenção humana
- exige que as plataformas treinem seus sistemas para que atuem de forma a não cometer discriminações e a corrigir vieses discriminatórios diretos, indiretos, ilegais e abusivos
Quem vai fiscalizar
O texto atual define que, se o PL chegar à sanção, é o Poder Executivo que deve escolher o órgão responsável pela implementação e fiscalização da lei. Essa autoridade também poderá experimentar as plataformas antes de entrarem no mercado – uma obrigatoriedade para atuarem no país.
Multa e proibição
Plataformas de IA que não se enquadrarem nas regras poderão receber advertência ou proibição do tratamento de determinada base de dados, em casos mais graves. Em caso de multa, as autuações podem chegar a R$ 50 milhões.
Brasil na vanguarda
Se a discussão começar, o Brasil será um dos primeiros países do mundo a debater regras para IA. A Comissão Europeia já propôs regras para proteger os cidadãos dessas tecnologias ainda em 2021. No final de abril, os eurodeputados concordaram em levar o projeto para a próxima fase. A partir de agora, eles discutem os detalhes finais da regulamentação.
Já os EUA, país-sede das principais empresas do setor, não começou a debater regras para as IAs. O posicionamento é o esperado do Congresso norte-americano, que tradicionalmente discorda da criação de regulações para o setor privado, em especial na área da tecnologia.