Alice Labate | 01 de setembro de 2025 - 18h00

Homem nos EUA comete assassinato e suicídio após meses de delírios reforçados por interações com IA

Investigações apontam que ChatGPT foi usado por vítima como ferramenta de validação de teorias conspiratórias; caso reacende debate sobre segurança em inteligências artificiais

INTERNACIONAL
Homem mata a mãe e se suicida nos EUA após interações com ChatGPT que alimentaram suas paranoias. - (Foto: Alice Labate/Estadão)

Um caso trágico ocorrido em Connecticut, nos Estados Unidos, reacendeu discussões sobre os limites e os riscos no uso de inteligências artificiais para pessoas com transtornos mentais. Segundo informações do jornal The Wall Street Journal, um homem de 56 anos matou a própria mãe e, logo após, tirou a própria vida. A polícia investiga o episódio como homicídio seguido de suicídio.

Stein-Erik Soelberg, ex-funcionário de empresas como Yahoo e Netscape, sofria com problemas mentais há anos e teria desenvolvido uma relação obsessiva com o chatbot ChatGPT, da OpenAI, ao qual deu o apelido de “Bobby”. Durante meses, ele utilizou a ferramenta como forma de companhia e, principalmente, como apoio emocional em seus delírios persecutórios, alguns deles envolvendo a própria mãe, Suzanne Eberson Adams, de 83 anos.

Os dois foram encontrados mortos em 5 de agosto na casa onde viviam, em Old Greenwich. Segundo vizinhos e amigos, Soelberg já apresentava um comportamento instável há muito tempo, com histórico de alcoolismo, episódios de violência doméstica e tentativas de suicídio desde 2018.

Mensagens arquivadas nas redes sociais mostram que o chatbot não apenas falhou em desencorajar as ideias paranoicas do usuário, como também chegou a reforçá-las. Em uma das trocas, o ChatGPT teria respondido: “Erik, você não é louco”. Em outra, sugeriu que o suposto envenenamento por parte da mãe poderia ser plausível.

O relacionamento entre Soelberg e o chatbot se intensificou ao ponto de o homem afirmar que eles estariam juntos “até o último suspiro e além”, frase que foi repetida pelo próprio bot na resposta.

Uma das explicações técnicas para esse comportamento está no uso da funcionalidade de memória do ChatGPT, que permite à ferramenta lembrar de informações anteriores compartilhadas pelo usuário. Especialistas ouvidos pelo WSJ explicam que, nesse modo, há maior risco de que a IA entre em um ciclo de confirmação dos delírios e fantasias do usuário, ao invés de confrontá-los ou oferecer orientações adequadas.

Após o caso se tornar público, a OpenAI afirmou ter entrado em contato com as autoridades de Greenwich e lamentou a tragédia. “Estamos profundamente tristes com este trágico evento. Nossos corações estão com a família”, disse um porta-voz da empresa.

A companhia de Sam Altman também reconheceu que, em conversas longas, o ChatGPT pode apresentar respostas inadequadas, especialmente quando usado de forma intensa por pessoas em sofrimento psíquico. Em resposta, a OpenAI anunciou a adoção de novas medidas de segurança para evitar interações que reforcem pensamentos prejudiciais e passou a incluir sugestões para que usuários em crise busquem apoio profissional.

Embora este seja o primeiro caso documentado em que uma ferramenta de IA esteja relacionada diretamente a um assassinato seguido de suicídio, já existem registros anteriores de pessoas que tiraram a própria vida após interações prolongadas com bots. Recentemente, outra família nos EUA entrou com processo judicial contra a OpenAI, alegando que o ChatGPT teve papel decisivo no suicídio de um adolescente.

O avanço das tecnologias de linguagem natural tem gerado alertas por parte da comunidade científica. Mustafa Suleyman, CEO da Microsoft AI, destacou a urgência de estabelecer barreiras de proteção. “Não acredito que isso se limitará àqueles que já correm risco de problemas de saúde mental”, escreveu em artigo recente.

Onde buscar ajuda

Se você ou alguém que você conhece está enfrentando sofrimento emocional ou pensamentos suicidas, saiba que existem canais de apoio disponíveis:

NOTA DA REDAÇÃO: Suicídios são um problema de saúde pública. Antes, o Estadão, assim como boa parte da mídia profissional, evitava publicar reportagens sobre o tema pelo receio de que isso servisse de incentivo. Mas, diante da alta de mortes e tentativas de suicídio nos últimos anos, inclusive de crianças e adolescentes, o Estadão passa a discutir mais o assunto. Segundo especialistas, é preciso colocar a pauta em debate, mas de modo cuidadoso, para auxiliar na prevenção. O trabalho jornalístico sobre suicídios pode oferecer esperança a pessoas em risco, assim como para suas famílias, além de reduzir estigmas e inspirar diálogos abertos e positivos. O Estadão segue as recomendações de manuais e especialistas ao relatar os casos e as explicações para o fenômeno.