Envato
São Paulo, 16/04/2025 - Desafios propagados em redes sociais têm se tornado frequentes e gerado resultados trágicos, por vezes fatais. O caso mais recente envolve uma menina de oito anos que morreu no Distrito Federal após sofrer uma parada cardiorrespiratória ao inalar um desodorante aerossol - tal prática é sugerida em vídeos divulgados na internet.
É ao menos o segundo óbito no País somente em 2025: em março, outra menina de 11 anos também sofreu uma parada cardiorrespiratória em uma cidade no interior do Pernambuco por conta do chamado "desafio do desodorante".
A secretaria de Direitos Digitais do Ministério da Justiça contabilizou 56 crianças que morreram no ano passado por conta de tais desafios.
Especialistas defendem a necessidade de punições severas tanto para quem propõe e divulga esse tipo de conteúdo quanto das plataformas, que também podem responder criminalmente por não fiscalizar e vetar na urgência exigida. A ausência de punição efetiva, inclusive, tem o efeito colateral de legitimar, por inércia, a repetição de tragédias.
Alexander Coelho, sócio do Godke Advogados e especialista em direito digital e proteção de dados, afirma que o desafio do desodorante, por exemplo, envolve condutas com evidente risco à integridade física, especialmente quando dirigido a menores.
"Esses conteúdos deveriam ser tratados com a mesma severidade que se aplica à incitação ao suicídio ou à automutilação. No entanto, estamos atrasados em criar um marco legal que dê conta dessa nova realidade digital", afirma ele.
Casos como esses exigem uma análise multifacetada que envolva Direito Penal, Direito Digital e responsabilidade das plataformas, de acordo com Alexander Coelho.
"Quando uma criança perde a vida em razão de um ‘desafio’ veiculado nas redes sociais, não estamos diante de uma simples fatalidade, mas sim de um reflexo da ausência de mecanismos efetivos de proteção digital infantil".
A responsabilização pode recair tanto sobre os indivíduos que criaram ou propagaram o conteúdo perigoso, quanto - em certos contextos - sobre as plataformas que falharam em moderá-lo de forma tempestiva, avalia ele.
Segundo o especialista, o ponto central é a previsibilidade do dano, pois ao permitir a viralização de conteúdos que incentivam condutas de risco, "as redes sociais se tornam parte do problema ainda que indiretamente."
"Infelizmente, na prática, a punição ainda é a exceção. Embora o homicídio qualificado seja juridicamente possível - sobretudo se for comprovado o dolo eventual ou a indução à morte -, a responsabilização criminal direta dos criadores ou replicadores dos desafios encontra obstáculos na apuração da autoria, da intencionalidade e do nexo causal", afirma Coelho.
Desde 2019, a Organização Mundial da Saúde (OMS) tem considerado os "jogos perigosos" (hazardous games, em inglês) como um distúrbio comportamental listado na Classificação Internacional de Doenças (CID). O perigo pode se manifestar tanto pelo excesso do tempo gasto com a "brincadeira" quanto pelos "comportamentos e consequências de risco" associados diretamente às regras do jogo.
"A classificação da OMS é um alerta científico, mas ainda encontra resistência no campo normativo. A compreensão de que "jogos perigosos" são comportamentos com potencial lesivo à saúde mental e física é um avanço, mas no direito brasileiro ainda carecemos de tipificações penais e civis claras para lidar com tais situações", pontua Coelho.
O advogado destaca ainda que o posicionamento das plataformas digitais, infelizmente, é marcado por uma lógica reativa, e não preventiva. "A conduta-padrão é aguardar que o dano aconteça, ganhe repercussão e pressione a opinião pública - só então os conteúdos são removidos", critica Coelho.
Segundo Coelho, as plataformas têm tecnologia mais do que suficiente para identificar e barrar conteúdos perigosos antes que viralizem. "Sistemas baseados em inteligência artificial já são capazes de detectar padrões típicos de desafios virais, analisar contextos visuais e linguísticos e bloquear a disseminação desses conteúdos em tempo real."
No plano internacional, há avanços ainda tímidos. O Digital Services Act (DSA) da União Europeia, em vigor desde 2022, impõe deveres específicos de transparência e segurança, especialmente na proteção de menores, de acordo com o especialista em direito digital e proteção de dados.
Ele destaca a multa de €345 milhões, aplicada ao TikTok em 2023 por falhas na privacidade infantil, como um marco que sinaliza uma mudança de tom. Procurada pela reportagem, a plataforma não se manifestou.
Coelho lembra que o Brasil conta com ferramentas jurídicas relevantes, dentre elas a Lei Geral de Proteção de Dados Pessoais (LGPD), o Marco Civil da Internet e os princípios já consolidados da moderação responsável.
"Essas normas impõem o dever de diligência contínua das plataformas, especialmente diante de conteúdos que colocam crianças e adolescentes em situação de risco. O grande desafio é operacionalizar esse dever: transformar a letra da lei em vigilância real, com auditorias independentes, penalidades efetivas e responsabilidade solidária em caso de omissão", avalia ele.
Plataformas que lucram com a viralização de conteúdo precisam ser obrigadas a investir na prevenção de tragédias, na análise do especialista. "Porque quando uma criança morre por causa de um vídeo, a omissão deixa de ser tecnológica - e passa a ser ética", afirma ele.
"Por fim, se redes sociais têm algoritmos potentes o suficiente para prever o que você vai comprar amanhã, por que ainda não conseguem prever - e evitar - o que pode matar uma criança hoje?", questiona.
Além de punição dos culpados, o delegado-chefe adjunto da 15ª Delegacia de Polícia, Walber José de Sousa Lima, responsável pela investigação da morte da menina de oitos anos no DF, também reforça o cuidado por parte dos pais, que devem orientar os filhos sobre os perigos de determinados conteúdos.
"Esse caso traz um alerta aos pais e responsáveis sobre o conteúdo que os filhos acessam na internet, mesmo estando na residência, necessitando por parte deles uma maior fiscalização para que essas crianças e adolescentes não acessem conteúdos inadequados e que um caso tão chocante como esse não volte a ocorrer novamente", alerta o delegado.
"Não tem outro jeito a não ser monitorar o uso da internet pelas crianças e adolescentes e conversar frequentemente numa linguagem condizente com a idade, que vai variar muito com a idade", avalia Nina Ferreira, médica psiquiatra e psicoterapeuta. No geral, as crianças precisam de conversas bem simples e objetivas.
"Olha, quando te fizerem propostas de joguinhos, desafios, conta para mamãe e para o papai antes, tá bom? Que aí a gente ajuda você a avaliar se dá para fazer, se não dá, né? Então, ter esse tom da conversa", exemplifica ela. E quando é pré-adolescente e adolescente, poder falar mais diretamente dos riscos, inclusive falar do risco de morte, para que eles entendam a gravidade da situação.
Segundo ela, mesmo que haja essas conversas, a vigilância é necessária, principalmente até os 16 anos, e voltar sempre nessas conversas e fazer perguntas abertas. "Conta o que você tem visto? E tentar também os adultos se manterem atualizados do que tá acontecendo entre esses grupos de jovens, trocar informações entre os pais, para poder ter o máximo de cuidado possível", reforça a especialista. Ou seja, a vigilância direta do conteúdo que eles estão consumindo é essencial.
Política de comentários
Este espaço visa ampliar o debate sobre o assunto abordado na notícia, democrática e respeitosamente. Não são aceitos comentários anônimos nem que firam leis e princípios éticos e morais ou que promovam atividades ilícitas ou criminosas. Assim, comentários caluniosos, difamatórios, preconceituosos, ofensivos, agressivos, que usam palavras de baixo calão, incitam a violência, exprimam discurso de ódio ou contenham links são sumariamente deletados.