Apenas 27% das empresas brasileiras têm regras para uso de IA
Envato
08/12/2025 | 15h20 ● Atualização: 08/12/2025 | 15h20
São Paulo, 08/12/2025 - A Inteligência Artificial já faz parte do cotidiano corporativo brasileiro, desde o atendimento ao consumidor até decisões estratégicas. Porém, a maioria das empresas ainda opera sem regras claras para o uso da tecnologia. Apenas 27% das organizações possuem políticas formais de governança de IA, um índice que revela como o País avança em adoção, mas não em responsabilidade tecnológica.
O dado integra a terceira edição da Pesquisa Setorial sobre Maturidade de Riscos Digitais das Empresas Brasileiras, realizada entre março e outubro de 2025 com 234 companhias de diferentes setores e portes. O levantamento, realizado pelo Miti - Markets Innovation & Technology Institute, analisou os três pilares de sustentabilidade digital: cibersegurança, governança de dados e inteligência artificial.
Leia também: Lei da IA no Brasil se inspira na europeia mas é mais flexível, dizem juristas
A ausência de diretrizes para IA se reflete em um cenário mais amplo: mais de um terço das empresas brasileiras ainda não possui políticas robustas de cibersegurança. Quando ataques ou falhas digitais se materializam, o prejuízo médio projetado é de US$ 31,99 milhões por incidente, aproximadamente R$ 170 milhões, incluindo paralisação de operações e reparo de sistemas. O valor, apesar de ligeiramente inferior ao registrado em 2024, continua expressivo.
A CEO da Bidweb, uma das patrocinadoras da pesquisa, Flávia Brito afirma que o uso incorreto da tecnologia pode ser prejudicial, ao invés de benéfico.
“Há uma falsa sensação de que a tecnologia, por si só, resolve os problemas. Mas, sem governança, a IA se transforma em um agente de risco. Ela pode tomar decisões erradas, discriminar pessoas ou vazar dados sensíveis, e tudo isso tem impacto direto no caixa e na reputação da empresa".
O estudo também mostra que a governança de dados avança em melhor ritmo: quase 70% das empresas já tratam o tema como prioridade, impulsionadas por exigências regulatórias como a LGPD e por cobranças crescentes de investidores por transparência e conformidade. No entanto, esse avanço ainda não acompanha a complexidade da Inteligência Artificial.
A rápida expansão da IA generativa, agora incorporada a processos críticos como análise de riscos, concessão de crédito e triagem de currículos, amplia os riscos operacionais e éticos. A falta de supervisão cria brechas para vieses discriminatórios, decisões automatizadas sem auditoria e dependência tecnológica sem clareza sobre responsabilidades.
Leia também: Para 84% dos jovens, conhecimento sobre IA é importante na empregabilidade
“O Brasil está adotando IA em escala, mas sem maturidade proporcional no controle do que os algoritmos fazem, porque fazem e quem responde quando erram. Isso abre espaço tanto para danos silenciosos quanto para eventos catastróficos", destaca Flávia Brito.
O contexto global adiciona pressão. Países que lideram a regulamentação da tecnologia, como membros da União Europeia, com o recém-aprovado AI Act, elevam expectativas de segurança e transparência para empresas que atuam no mercado internacional. “Governança não atrasa inovação. Pelo contrário: é o que garante que empresas possam inovar sem perder consumidores, sem enfrentar ações judiciais e sem transformar o digital em passivo. Quem cuidar da ética e da segurança da IA agora terá vantagem competitiva amanhã", pondera a especialista.
Estagiário sob supervisão de Marcia Furlan
Comentários
Política de comentários
Este espaço visa ampliar o debate sobre o assunto abordado na notícia, democrática e respeitosamente. Não são aceitos comentários anônimos nem que firam leis e princípios éticos e morais ou que promovam atividades ilícitas ou criminosas. Assim, comentários caluniosos, difamatórios, preconceituosos, ofensivos, agressivos, que usam palavras de baixo calão, incitam a violência, exprimam discurso de ódio ou contenham links são sumariamente deletados.
