envato
São Paulo, 04/07/2025 - A constante evolução dos agentes de Inteligência Artificial trouxe uma preocupação global: as leis precisam evoluir na mesma medida. No ano passado, a União Europeia se tornou referência com a publicação do AI Act, a maior legislação sobre IA aprovada até hoje, e voltou os olhares do mundo ao tema.
O filósofo da informação Luciano Floridi trabalhou junto a Comissão Europeia e explica que, idealmente, os países conversariam como iguais sobre esta regulamentação “É um pouco como dizer que existem problemas internacionais que requerem um diálogo entre os principais países no setor de IA. Por exemplo, a Europa decidir mudar sua Lei de IA depois da experiência com o Brasil e vice-versa. Se esse diálogo acontecer no mesmo nível, então teremos um grande debate democrático.”
No entanto, o próprio admite que não é este caminho que o mundo está seguindo, mas sim um meio-termo. Os demais países, incluindo o Brasil, seguiram o modelo do AI Act e adaptaram às suas realidades.
Tendo este cenário; entenda como está a regulamentação no Brasil, e as convergências e divergências com a lei europeia.
Em 2023 foi apresentado o PL 2338 pelo Senador Rodrigo Pacheco (PSD/MG), que dispõe sobre o uso da IA no Brasil. Atualmente em tramitação na Câmara dos Deputados, o projeto foi formulado a partir de uma Comissão de Juristas especializados no direito digital.
A advogada e ex-diretora da Faculdade de Direito da Universidade de Brasília, Ana Frazão, participou da Comissão e explica que, em temas como esse, é necessária uma harmonia global na regulamentação, e seguir as linhas da lei Europeia foi a decisão mais sábia.
“Já começamos os trabalhos tendo o AI Act europeu como um grande modelo. E por quê? Não é só porque ele já estava pronto, mas também por ser fruto de muito debate e um certo consenso. Dentro da complexidade do tema, ele conseguia apresentar respostas muito satisfatórias, especialmente por adotar um modelo de regulação por riscos”.
O modelo de regulação por riscos é uma das bases do PL, e fortemente inspirado no AI Act. Nele, os agentes de IA poderão ser classificados como Risco Excessivo ou Alto Risco. No primeiro caso, a implementação e o uso do sistema será proibida. Exemplos destes são agentes que induzam o usuário a comportamento prejudicial e criminoso, como incentivando o suicídio ou auxiliando em exploração sexual.
Já no segundo se enquadram sistemas de IA que envolvam atividades perigosas, como em procedimentos médicos e carros autônomos; ou com grandes consequências na tomada de decisão, como aprovação em projetos sociais e processos seletivos de empregos. IAs nesta classificação terão um peso regulatório maior do que, por exemplo, IAs que decidam quais e-mails irão para a sua caixa de spam.
Apesar das grandes semelhanças, o fundador do Data Privacy Brasil, Bruno Bioni, outro integrante da Comissão de Juristas, explica como o PL se adaptou ao País e quais diferenças do AI Act. “Por exemplo, a nossa lei é muito menos prescritiva (detalhista). Quando você compara aquele calhamaço da lei europeia, mais de 200 páginas, isso fica muito claro”.
A ideia deste texto menos prescritivo é que muitas decisões poderão ser tomadas depois. Enquanto o modelo europeu tenta criar de antemão diferentes regras, a lei brasileira propõe a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA).
Segundo Bioni, este sistema será análogo a outros órgãos como a ANS é para a saúde, Anvisa para a indústria farmacêutica ou Anatel para as telecomunicações. “Apesar de ser uma lei geral, ela tem essa verticalização setorial que deixa parte das regras para depois da devida contextualização”, completa o especialista.
Uma preocupação dos autores é a aplicação das leis. Casos como o do bloqueio do X (antigo Twitter), no Brasil, em outubro do ano passado por se recusar a retirar do ar perfis considerados antidemocráticos por ordem do Supremo Tribunal Federal, demonstraram que empresas globais podem ter força para não obedecerem todas as regras impostas.
Frazão usa o exemplo da Lei Geral de Proteção de Dados (LGPD), dizendo como, mesmo que ela seja tão rigorosa quanto sua verão europeia, que considera ser menos efetiva no Brasil . “É importante lembrar que uma boa legislação acaba sendo quase uma promessa, enquanto a efetividade dessa legislação pode ser menor. E grandes agentes muitas vezes têm potência para não cumpri-la adequadamente ou encontrar refúgios para não cumprir determinadas obrigações”, explica a advogada.
Floridi também tem o mesmo temor. Em sua experiência com governos e empresas multinacionais, percebeu que a pressão para o comprimento das leis depende de uma atuação de diversos países, especialmente os líderes em Inteligência Artificial: Estados Unidos e China. O filósofo se decepciona com a atuação dos EUA, mas pensa que o cenário também abre brechas para outros países entrarem no jogo, como o Brasil.
“Washington não está fazendo seu trabalho. O trabalho que precisa ser feito, então alguém mais está fazendo. Se você olhar ao redor, há muito interesse e desenvolvimentos na regulamentação da IA, o que me traz um certo otimismo.”
Sempre que se debate a regulação tecnológica, o medo de uma rigidez surge. Durante as reuniões da Comissão de Juristas, Bioni defendeu que um mito devia ser combatido: de que segurança jurídica e flexibilidade não possam coexistir. Um passo para combater o enrijecimento legal consta no artigo 18 da lei. Dentro do capítulo da categorização de riscos, ele determina que os sistemas poderão ser reavaliados e uma atualização pode tirar uma IA da lista de alto risco.
Para Bioni, o principal objetivo desta versatilidade da lei é possibilitar a inovação, que garantiria uma soberania tecnológica do Brasil. Perante o medo de uma regulamentação que possa impedir a evolução tecnológica, Bioni explica que a regulamentação serve para escolher qual será esta evolução.
“Um dos artigos iniciais fala expressamente que pode haver uma flexibilização regulatória para projetos de interesse nacional. Isso mostra que o projeto de lei não é apenas pró-inovação, mas pró-inovação olhando para o mercado brasileiro.”
Política de comentários
Este espaço visa ampliar o debate sobre o assunto abordado na notícia, democrática e respeitosamente. Não são aceitos comentários anônimos nem que firam leis e princípios éticos e morais ou que promovam atividades ilícitas ou criminosas. Assim, comentários caluniosos, difamatórios, preconceituosos, ofensivos, agressivos, que usam palavras de baixo calão, incitam a violência, exprimam discurso de ódio ou contenham links são sumariamente deletados.