
Conversar com inteligências artificiais (IAs) deixou de ser apenas um recurso para tirar dúvidas ou pedir conselhos práticos. Cada vez mais, especialmente entre adolescentes, essa interação tem assumido um caráter emocional, funcionando como uma espécie de “terapia digital”. A promessa de respostas imediatas, sem julgamentos e disponíveis 24 horas por dia pode soar tentadora — mas o risco de substituir o humano pelo algoritmo preocupa especialistas.

Segundo a socióloga e psicóloga hospitalar da Hapvida, em Limeira (SP), Lua Helena Moon, recorrer à IA em momentos de sofrimento pode oferecer alívio temporário, mas também reforçar sentimentos negativos e aumentar o isolamento.
“A tecnologia está sempre disponível, não julga e responde na hora. Em momentos de dor, isso pode soar como acolhimento. Mas essas ferramentas, por mais avançadas que sejam, não substituem o cuidado profissional. Quem sofre precisa de alguém que sustente essa escuta com técnica, compromisso e afeto”, alerta a especialista.
IA e saúde mental: alerta global - A discussão ganhou força após a OpenAI, desenvolvedora do ChatGPT, anunciar medidas para tornar suas ferramentas mais seguras — entre elas, o controle parental para menores de idade, protocolos específicos de saúde mental e a criação de um conselho internacional de especialistas. As decisões vieram após casos de suicídio registrados em diferentes países envolvendo o uso da IA como substituta de terapia.
Em um dos episódios mais chocantes, um adolescente norte-americano de 16 anos tirou a própria vida após trocar milhares de mensagens com o ChatGPT, que teria assumido o papel de “terapeuta”. Os pais do jovem agora processam a empresa por negligência.
Lua Helena explica que, por serem programadas para validar emoções, as inteligências artificiais podem, em alguns casos, reforçar pensamentos destrutivos. “Elas podem até organizar ideias e aliviar uma angústia pontual, mas não substituem o processo terapêutico. Assim como um site de busca não substitui um médico, uma conversa com IA jamais equivalerá à psicoterapia”, afirma.
A importância da escuta humana - Para a psicóloga, o grande diferencial do atendimento humano está na presença e na escuta qualificada.
“Psicólogos estudam por anos para entender o que está por trás do que é dito — e também do que não é dito. Eles sabem respeitar silêncios, reconhecer limites e oferecer um tipo de presença que fortalece o outro”, explica Lua Helena.
Segundo ela, esse vínculo não se constrói com frases automáticas, por mais sofisticadas que sejam. As IAs podem sugerir reflexões, mas não conhecem a história de vida da pessoa, nem conseguem identificar sinais sutis de risco, como ideação suicida.
Adolescência e isolamento - Entre os jovens, o uso emocional da IA pode revelar sinais de isolamento e falta de conexão com o mundo real. “O problema não é apenas o uso da tecnologia, mas o que ele revela: vínculos fragilizados. O adolescente que prefere desabafar com uma IA, em vez de conversar com pais, amigos ou professores, mostra que não está se sentindo compreendido”, diz a psicóloga.
Lua Helena destaca que o caminho não é proibir o uso das ferramentas, mas reconstruir as redes reais de apoio.
“A IA pode até acompanhar um trecho do caminho, mas jamais substituirá o processo terapêutico. O que salva uma pessoa é a presença humana, o vínculo e a escuta verdadeira”, conclui.
