ChatGPT Health reacende debate sobre limites da IA na saúde física e mental
Foto: Divulgação/OpenAI
21/01/2026 | 08h23
São Paulo, 21/01/2026 - No início deste mês, a empresa OpenAI anunciou o lançamento do ChatGPT Health, nova frente da plataforma voltada à aplicação da inteligência artificial em contextos de saúde, com foco especial no bem-estar emocional.
Atualmente, a possibilidade está sendo testada com um pequeno grupo de usuários iniciais e permite apenas um cadastro para lista de espera, mas chega com a promessa de integrar pesquisas dos usuários sobre saúde com seus dados pessoais, incluindo prontuários, receitas médicas e aplicativos pessoais como Apple Health, Function e MyFitnessPal.
Além de responder as dúvidas a qualquer hora, a ferramenta também promete partir dos dados de saúde inseridos pelo próprio usuário, criando alertas, planos de cuidados e mecanismos capazes de identificar questões de saúde, incluindo sinais de sofrimento psicológico. Contudo, especialistas reforçam que a evolução tecnológica precisa caminhar lado a lado com responsabilidade clínica, ética e limites bem definidos.
Leia também: ‘Modo adulto’ no ChatGPT permite conteúdo erótico, mas esbarra em controle de idade
Para o vice-presidente de saúde mental da Conexa, Rui Brandão, os dados reforçam a necessidade de cautela. “Já existem evidências de que modelos como o ChatGPT podem falhar na interpretação do sofrimento humano, deixando escapar nuances emocionais ou até oferecendo respostas inadequadas em contextos sensíveis".
Ele cita um estudo recente publicado no arXiv mostrando que enquanto terapeutas humanos responderam de forma adequada em 93% dos testes, sistemas de IA acertaram, em média, apenas 50% das respostas dentro dos padrões terapêuticos básicos.
“A indústria tem avançado e o ChatGPT Health é um reflexo desse esforço, mas é fundamental deixar claro que a IA pode apoiar no acolhimento inicial e no monitoramento de sintomas, jamais substituir a relação terapêutica humana.”
O diretor da Humand no Brasil, Leandro Oliveira, plataforma global de cultura organizacional, chama atenção para os riscos de uma dependência excessiva da tecnologia no cuidado emocional. “Existe um perigo real quando tentamos resolver questões profundamente humanas com ferramentas que não vivenciam emoções, contexto ou vínculo. Bem-estar emocional exige empatia, confiança e conexão genuína”, diz.
Recentemente, uma família dos Estados Unidos processou a OpenIA alegando que o chatbot ChatGPT encorajou seu filho, de 16 anos, a tirar a própria vida durante conversas no aplicativo. Em declarações à à imprensa americana, a família afirmou que a inteligência artificial validou "ideias nocivas e autodestrutivas" do jovem.
Leia também: Longevidade e tecnologia: 5 maneiras de usar a IA para transformar o bem-estar aos 60+
Consultar um médico continua sendo essencial
A médica Ana Cristina Albricker, coordenadora no Centro Universitário UniBH, diz que é fundamental compreender que a IA não substitui a consulta médica.
“A inteligência artificial veio para facilitar muitos processos e chegou para ficar, mas o risco surge quando ela passa a substituir o atendimento profissional. Uma escola de medicina existe justamente para formar médicos preparados para lidar com o ser humano em sua integralidade”.
Albricker explica ainda que o contato presencial continua sendo o ponto mais importante de qualquer diagnóstico.
“Nada substitui a presença do profissional, a conversa, a identificação da história e das queixas do paciente, além do exame físico. Esses elementos são indispensáveis para uma avaliação segura.”
Entre os riscos mais comuns do uso da IA como ferramenta diagnóstica, ela destaca o erro terapêutico e o agravamento de quadros clínicos.
“O paciente jamais deve confiar em diagnósticos ou receitas prescritas por qualquer IA. Medicamentos e prescrições são individualizados e só o médico responsável é capaz de definir o tratamento adequado, levando em conta as especificidades de cada pessoa”, alerta.
“Se o paciente seguir orientações de uma IA sem validação médica, há grande risco de seu quadro clínico se agravar, especialmente quando o conteúdo vem de fontes sem credibilidade”, reforça.
Pontos positivos
Leia também: Descubra como planejar sua alimentação com inteligência artificial
A médica ressalta que o desafio atual é educar a população para diferenciar apoio tecnológico de prática médica. “A IA é uma aliada, mas precisa ser usada com consciência e responsabilidade”, conclui.
Para Rui Brandão, da Conexa, “a disponibilidade contínua da ferramenta de IA é um diferencial, principalmente para quem enfrenta crises fora do horário de funcionamento das clínicas tradicionais”, Ainda assim, pondera, há limitações estruturais difíceis de contornar e que o futuro do uso da IA na saúde passa, necessariamente, por modelos híbridos e seguros.
"O objetivo não deve ser tornar profissionais mais parecidos com máquinas, mas usar as máquinas para que eles possam ser ainda mais humanos”, diz Brandão.
“Muitas vezes, o que torna a terapia humana eficaz são justamente suas ‘imperfeições’. O processo de cura é não linear, exige tempo e construção de vínculo. Torná-lo excessivamente eficiente por meio da IA pode eliminar os próprios elementos que sustentam o cuidado”, reforça Leandro Oliveira.
No ambiente corporativo, onde ferramentas generativas também ganham espaço, o alerta também é necessário, segundo o executivo da Humand. “A inteligência artificial pode otimizar processos, mas não substitui os pequenos gestos que constroem cultura organizacional, como escuta ativa, trocas espontâneas e criatividade coletiva”, diz.
Privacidade e segurança de dados no centro do debate
O que diz a OpenAI
A OpenAI explica, por sua vez, que os cadastros de registros médicos ficam disponíveis apenas para usuários com 18 anos ou mais do ChatGPT Health. Diz ainda que para viabilizar o acesso a prestadores de saúde nos Estados Unidos, onde o recurso está sendo introduzido, fez parceria com a rede de dados de saúde b.well. Ainda não há informações sobre parcerias no Brasil.
Segundo a página oficial do projeto, a OpenAI afirma também ter trabalhado "ao longo de dois anos com mais de 260 médicos de dezenas de especialidades e em 60 países" para entender "o que torna uma resposta sobre saúde útil ou potencialmente prejudicial", focando em "incentivar um retorno com um profissional de saúde, comunicar com clareza sem simplificar demais e priorizar a segurança nos momentos que importam".
Comentários
Política de comentários
Este espaço visa ampliar o debate sobre o assunto abordado na notícia, democrática e respeitosamente. Não são aceitos comentários anônimos nem que firam leis e princípios éticos e morais ou que promovam atividades ilícitas ou criminosas. Assim, comentários caluniosos, difamatórios, preconceituosos, ofensivos, agressivos, que usam palavras de baixo calão, incitam a violência, exprimam discurso de ódio ou contenham links são sumariamente deletados.
