Facebook Viva Youtube Viva Instagram Viva Linkedin Viva

IA vai dar diagnóstico? Entenda a nova resolução do CFM

Adobe Stock

Especialistas destacam que embora a norma traga avanços, profissionais e as instituições enfrentarão desafios práticos - Adobe Stock
Especialistas destacam que embora a norma traga avanços, profissionais e as instituições enfrentarão desafios práticos
Por Emanuele Almeida

02/03/2026 | 15h36

São Paulo, 02/03/2026 - O Conselho Federal de Medicina (CFM) publicou a Resolução nº 2.454/2026, que normatiza o uso da inteligência artificial (IA) na medicina em todo o Brasil na última sexta-feira, 27. Na prática, o documento determina as diretrizes para a utilização dessa tecnologia, estabelecendo  regras e limites.

As principais determinações são:

  • Soberania do médico: a IA deve ser empregada exclusivamente como ferramenta de apoio, sendo vedada a delegação de diagnósticos ou decisões terapêuticas à máquina. A palavra final e a responsabilidade ética são sempre do profissional humano, assim como a decisão de usar a ferramenta ou não;
  • Transparência e consentimento: o paciente tem o direito de ser informado, de forma clara e acessível, sempre que ferramentas de inteligência artificial forem utilizadas de maneira relevante em seu cuidado;
  • Governança e segurança: os sistemas de IA serão classificados por níveis de risco e devem seguir rigorosamente a Lei Geral de Proteção de Dados Pessoais (LGPD), exigindo que as instituições criem comissões de IA sob coordenação médica.

Leia também: Diagnóstico por algoritmo: o SUS está pronto para a IA?

Para o vice-presidente de Saúde Mental da Conexa, Rui Brandão, a resolução do CFM legitima a IA como apoio clínico, além de proteger a autonomia do médico e impor transparência e gestão de risco durante o atendimento.

A advogada especialista em direito regulatório e sanitário do escritório BRZ Advogados, Aline Coelho avalia a resolução do CFM como benéfica e uma tentativa de organizar minimamente o uso da tecnologia pelo profissional médico. Ela reforça que a inteligência artificial já é utilizada de diversas formas no setor da saúde — inclusive pelo próprio Ministério da Saúde — para agilizar processos e apoiar tomadas de decisão.

Uma coisa muito importante da normativa é que a inteligência artificial não substitui o médico. Ela não substitui o seu conhecimento e não substitui o seu relacionamento com o paciente."

Nessa mesma linha, o advogada especialista em Life Sciences do Lopes Muniz Advogados, Mariana Carneiro Lopes Muniz de Oliveira, destaca outro aspecto positivo: a norma exige que as instituições de saúde monitorem o uso contínuo das ferramentas de IA, realizando avaliações de risco e auditorias de sistemas, o que confere maior segurança e transparência aos pacientes.

Entretanto, a regulamentação do CFM, por si só, não garante um uso sem falhas da inteligência artificial na saúde brasileira. Para Aline Coelho, o maior mérito da norma é dar respaldo legal ao médico. “A resolução do CFM isoladamente não tem esse condão, mas ela agrega, porque dá segurança para o profissional médico, que vai sempre ter a decisão final sobre aquele diagnóstico e tratamento”, completa.

Governança e uso de dados

Sobre o tratamento de informações pessoais, a resolução determina que o tratamento de dados de pacientes por ferramentas de inteligência artificial deve seguir rigorosamente a LGPD e as normativas de segurança da informação em saúde.

Leia também: LGPD: entenda como funciona a Lei Geral de Proteção de Dados

Esse contexto regulatório exige uma governança compartilhada: os sistemas de IA precisam ter certificação regulatória prévia e validação científica, cabendo às instituições de saúde classificar o risco das ferramentas e criar comissões internas para supervisionar seu uso. A fiscalização contínua e o controle ético ficam a cargo dos Conselhos Regionais de Medicina (CRMs).

Além disso, a norma impõe diretrizes rigorosas para a proteção das informações dos pacientes. O desenvolvimento e a implementação das soluções de IA devem incorporar obrigatoriamente os conceitos de Privacy by design (privacidade desde a concepção) e Privacy by default (privacidade por padrão), garantindo o nível mais alto de confidencialidade com anonimização e criptografia.

Nesse sentido, o CFM também estabelece que o paciente deve ser informado de forma transparente sobre o uso de seus dados por ferramentas de IA, seja para diagnóstico, tratamento ou auxílio em intervenções.

Ainda é preciso cautela

A resolução do CFM chega em um momento de transformação, com o governo investindo em centros tecnológicos na saúde, como o hospital inteligente em São Paulo, e debatendo parcerias estratégicas com outros países para garantir infraestrutura ao sistema de saúde público.

Leia também: Brasil e Índia discutem cooperação para produção de remédios e vacinas

Contudo, apesar das melhorias em serviços, pesquisas apontam que a atuação plena da IA na saúde deve ser encarada com cautela. A tecnologia ainda precisa ser testada em contextos clínicos complexos e passar por aprimoramentos de performance pelos desenvolvedores antes de assumir papéis mais autônomos na interação real com o paciente.

A advogada Mariana Carneiro reforça que, embora a norma traga avanços importantes, os profissionais e as instituições enfrentarão desafios práticos. “A implementação, em curto prazo, dessas ferramentas de IA pode ser complexa e custosa, exigindo novos treinamentos e ajustes no fluxo de trabalho dos profissionais”, avalia.

Ela acrescenta que instituições da rede privada já utilizam algumas ferramentas de IA em gestão, patologia e radiologia, mas alerta que a adoção pelo sistema público e por redes privadas de menor porte ainda esbarra em obstáculos estruturais.

"Elas ainda carecem de fatores estruturais, tecnológicos e até mesmo jurídicos para incorporar sistemas de IA, como prontuários eletrônicos não fragmentados, protocolos de validação clínica, programas de capacitação médica, definição de políticas públicas e protocolos de responsabilidade civil."

Para Rui Brandão, somente a determinação do CFM não é o bastante, pois o uso da IA em saúde exige governança ativa, monitoramento de vieses, supervisão técnica e educação contínua. "O uso responsável não nasce só da regra, nasce da maturidade das instituições e da consciência clínica de quem a utiliza", conclui. 

Comentários

Política de comentários

Este espaço visa ampliar o debate sobre o assunto abordado na notícia, democrática e respeitosamente. Não são aceitos comentários anônimos nem que firam leis e princípios éticos e morais ou que promovam atividades ilícitas ou criminosas. Assim, comentários caluniosos, difamatórios, preconceituosos, ofensivos, agressivos, que usam palavras de baixo calão, incitam a violência, exprimam discurso de ódio ou contenham links são sumariamente deletados.

Gostou? Compartilhe

Últimas Notícias