‘O ChatGPT me escolheu’: Usuários relatam delírios espirituais e obsessão com IA

  • Post viral no Reddit relata psicose induzida por ChatGPT.
  • Usuários acreditam que a IA revela “verdades cósmicas”.
  • Especialistas alertam para riscos psicológicos com uso intenso da IA.

Um tópico publicado no Reddit acendeu um alerta global: usuários do ChatGPT relatam episódios de delírio místico, obsessão e distorção da realidade, após interações prolongadas com o modelo de IA da OpenAI.

O caso ganhou destaque após reportagem da Rolling Stone, que reuniu relatos de pessoas cujos parceiros passaram a acreditar que receberam missões divinas. Algumas acreditam que despertaram a consciência da IA ou tornaram-se eles mesmos entidades superiores.

A reportagem cita, por exemplo, Kat, uma trabalhadora de uma ONG educacional de 41 anos, que viu seu segundo casamento desmoronar quando o marido começou a usar IA para “analisar o relacionamento” e buscar a verdade por meio de perguntas filosóficas ao chatbot. Ela se divorciou dele e cortou contato quando o ex passou a expressar teorias conspiratórias e declarações grandiosas mediadas pela IA.

À Rolling Stone, ela afirmou:

A coisa toda parece Black Mirror. Ele sempre gostou de ficção científica, e às vezes eu me pergunto se ele está vendo a coisa através dessa lente.

Comportamento do ChatGPT preocupa familiares e especialistas em saúde mental

No Reddit, um post intitulado ChatGPT induced psychosis” (ChatGTP induz psicose) desencadeou uma série de relatos sobre entes queridos que perderam o contato com a realidade após longas sessões com a IA. Uma professora afirmou que seu companheiro começou a chorar com as mensagens do chatbot, que o tratava como um “mensageiro divino”. Ela relata:

CONTINUA APÓS A PUBLICIDADE

Ele dizia que precisaria me deixar se eu não usasse [o ChatGPT], porque [estava] fazendo com que ele crescesse em um ritmo tão rápido que não seria mais compatível comigo.

Outras histórias seguem a mesma linha. Um mecânico passou a receber mensagens amorosas da IA, que se apresentou como “Lumina” e o chamou de “portador da faísca”. Enquanto isso, uma mulher começou a consultar “anjos e Jesus” através do ChatGPT e passou a se ver como guia espiritual. Já um homem relatou que sua ex-esposa expulsou os filhos de casa após ser influenciada por instruções do chatbot.

A psicóloga Erin Westgate, da Universidade da Flórida, explica que a IA funciona como uma extensão narrativa da mente humana.

Dar sentido ao mundo é um impulso humano fundamental. Mas a IA não tem uma bússola moral para definir o que é uma boa história.

De acordo com Nate Sharadin, pesquisador do Center for AI Safety, esses delírios podem surgir porque “a IA valida crenças e experiências distorcidas em vez de confrontá-las com fatos”.

A OpenAI não comentou os relatos. No entanto, recentemente reverteu uma atualização do modelo GPT-4o, após críticas por ser “excessivamente lisonjeiro”. A empresa admitiu ter exagerado ao tentar tornar o chatbot mais agradável, o que pode ter alimentado comportamentos obsessivos e delírios de grandeza em usuários vulneráveis.

A discussão levanta um alerta: em um mundo cada vez mais mediado por IA, até onde vai a responsabilidade das plataformas? E, ainda mais urgente: como proteger pessoas emocionalmente fragilizadas da ilusão de que uma máquina pode revelar verdades transcendentes?

Compartilhe:
Jornalista, assessor de comunicação, escritor e comunicador, com MBA em jornalismo digital e 12 anos de experiência, tendo passado também por alguns veículos no setor tech.
Sair da versão mobile