Facebook Viva Youtube Viva Instagram Viva Linkedin Viva

Famílias de jovens mortos conseguem acesso a conversas antigas de ChatGPT

Foto: Divulgação/OpenAI

Os processos buscam indenizações milionárias e podem inaugurar uma nova fase de responsabilização - Foto: Divulgação/OpenAI
Os processos buscam indenizações milionárias e podem inaugurar uma nova fase de responsabilização

Por Joyce Canele

redacao@viva.com.br
26/01/2026 | 11h44

São Paulo, 26/01/2026 - Recentemente, nos Estados Unidos, as famílias dos adolescentes que tiraram a própria vida após episódios de sofrimento psíquico, com a ajuda do ChatGPT, passaram a ter acesso a conversas antigas dos jovens com a plataforma da OpenAI.

Os registros, anexados a ações judiciais por negligência e homicídio culposo, são usados para sustentar a acusação de que o chatbot falhou ao lidar com usuários em crise.

Leia também: O que muda para pais e filhos com a nova lei do ECA Digital? Entenda

Os processos buscam indenizações milionárias e podem inaugurar uma nova fase de responsabilização legal para a indústria de inteligência artificial.

O avanço das ações judiciais

O avanço das ferramentas de inteligência artificial, que impulsionou avaliações bilionárias de empresas como OpenAI e Google, começa a esbarrar em um obstáculo sensível.

Uma série de processos acusa chatbots de terem contribuído para crises graves de saúde mental, incluindo suicídios e tentativas de suicídio de jovens usuários.

Leia também: ChatGPT Health reacende debate sobre limites da IA na saúde física e mental

Somente em novembro do ano passado, a OpenAI foi alvo de sete ações judiciais em um único dia. Três delas relatam crises de saúde mental associadas ao uso do ChatGPT, segundo informações publicadas pelo SFGATE.

Outras quatro atribuem ao chatbot um papel direto em mortes por suicídio, em todos os casos, as famílias pedem acesso aos históricos completos de conversas, considerados essenciais para demonstrar como o sistema respondeu a sinais claros de sofrimento emocional.

O que aconteceu?

O processo mais avançado envolve a família de Adam Raine, de 16 anos, que cometeu suicídio em abril de 2025 em Orange County, na Califórnia.

Os pais acusam a OpenAI de negligência e homicídio culposo, segundo a queixa, o ChatGPT teria ajudado o adolescente a redigir uma carta de despedida e validado o método que ele pretendia usar, mesmo após menções a ideações suicidas e tentativas anteriores.

Leia também: Prompts: Aprenda como melhorar seus pedidos para a Inteligência Artificial

A ação, que tramita no Tribunal Superior de São Francisco, pode vir a ser o primeiro caso envolvendo um chatbot a ser analisado por um júri.

Para os advogados das famílias, a apresentação das conversas completas pode ser decisiva para convencer os jurados de que houve falha grave no design e na moderação do sistema.

Posicionamento do ChatGPT

A OpenAI, que é dona do ChatGPT, nega as acusações. Como informado pela imprensa americana, a empresa sustenta que a ferramenta de IA é um serviço, e não um produto, e que, portanto, não deveria ser enquadrado em ações de responsabilidade por produto defeituoso.

A empresa também invoca a liberdade de expressão prevista na Primeira Emenda da Constituição dos Estados Unidos e afirma que houve uso indevido da ferramenta, com suposta violação dos termos de uso e contorno deliberado de mecanismos de segurança.

Essa linha de argumentação, comum no setor de tecnologia, já foi parcialmente rejeitada em processos semelhantes envolvendo outras empresas de IA.

Leia também: IA para iniciantes: como usar ferramentas no dia a dia?

Em decisões recentes, juízes indicaram que chatbots podem, sim, ser analisados sob a ótica de responsabilidade civil, especialmente quando há alegações de defeito de projeto ou negligência.

Conversas antigas

O acesso aos históricos de chat é um dos pontos centrais das ações. Para os advogados das famílias, as mensagens revelam não apenas respostas inadequadas, mas padrões de interação que podem ter reforçado comportamentos autodestrutivos.

Esses registros, segundo eles, ajudam a demonstrar que o problema não se limita a um uso isolado ou excepcional da ferramenta.

Do outro lado, as empresas argumentam que as conversas são descontextualizadas e que os sistemas não substituem acompanhamento profissional.

Ainda assim, especialistas em direito avaliam que a simples possibilidade de um júri considerar esses diálogos como prova de negligência já representa um risco financeiro elevado para o setor, com indenizações que podem chegar a dezenas ou centenas de milhões de dólares por caso.

Embora um veredicto de júri não crie precedente vinculante, ele serve como referência para novas ações e pode pressionar acordos extrajudiciais.

Leia também: Posso pedir para o ChatGPT ler meus exames?

Até o momento, nenhum dos processos contra a OpenAI foi julgado em definitivo por um júri. As ações seguem em diferentes fases na Justiça norte-americana, com pedidos de produção de provas, análise de documentos internos e acesso aos históricos completos de conversas entre usuários e o ChatGPT

Saúde mental, segurança digital e IA

Esses casos recentes envolvendo famílias de jovens que morreram após buscar apoio emocional no ChatGPT reacenderam o debate sobre os limites do uso da inteligência artificial em contextos de sofrimento psíquico.

Os episódios levantam questionamentos sobre responsabilidade das empresas, segurança das informações sensíveis e o papel dessas ferramentas em momentos de crise emocional.

O tema ganha ainda mais peso diante da dimensão do problema. Segundo a Organização Mundial da Saúde (OMS), mais de 720 mil pessoas morrem por suicídio todos os anos, sendo essa a terceira principal causa de morte entre jovens de 15 a 29 anos.

Segundo Andy Bookas cofundador da Telavita, no Brasil, os dados também são alarmantes, em 2024, o país registrou mais de 472 mil afastamentos do trabalho por ansiedade e depressão, além de mais de 13 mil mortes anuais por suicídio, afetando sobretudo jovens, grupo altamente exposto ao uso intenso de plataformas digitais.

[...] é preciso reforçar a prioridade inadiável com a preservação da vida e o fortalecimento do cuidado humano. A IA já faz parte do nosso cotidiano, e cabe a todos — sociedade, gestores, profissionais, empresas e usuários — exigir que seu uso seja sempre orientado pela ética, transparência e pelo respeito incondicional à dignidade e ao bem-estar de cada indivíduo".

Ferramentas como o ChatGPT passaram a ser usadas como forma de acolhimento imediato, especialmente por pessoas que ainda não acessaram atendimento profissional.

Leia também: Apenas 15% das empresas dão capacitação recorrente sobre IA, mostra pesquisa

Especialistas alertam, no entanto, que esse uso envolve riscos. Pesquisas acadêmicas e reportagens internacionais relatam respostas inadequadas, falhas de interpretação e até agravamento do sofrimento emocional em interações com chatbots.

Entidades como a American Psychological Association (APA) reforçam que sistemas de IA devem atuar apenas como suporte inicial, com protocolos claros de encaminhamento para atendimento humano em situações de risco.

A discussão sobre o acesso a conversas antigas também evidencia lacunas na proteção de dados e na regulamentação.

Leia também: Para 84% dos jovens, conhecimento sobre IA é importante na empregabilidade

Diante do avanço das ações judiciais sobre o caso do ChatGPT, do acesso aos históricos de conversas e do aumento do uso de ferramentas de inteligência artificial em contextos de sofrimento psíquico, o tema passa a ocupar espaço central nos debates sobre saúde mental, segurança digital e responsabilização legal.

Comentários

Política de comentários

Este espaço visa ampliar o debate sobre o assunto abordado na notícia, democrática e respeitosamente. Não são aceitos comentários anônimos nem que firam leis e princípios éticos e morais ou que promovam atividades ilícitas ou criminosas. Assim, comentários caluniosos, difamatórios, preconceituosos, ofensivos, agressivos, que usam palavras de baixo calão, incitam a violência, exprimam discurso de ódio ou contenham links são sumariamente deletados.

Gostou? Compartilhe

Últimas Notícias