- Post viral no Reddit relata psicose induzida por ChatGPT.
- Usuários acreditam que a IA revela “verdades cósmicas”.
- Especialistas alertam para riscos psicológicos com uso intenso da IA.
Um tópico publicado no Reddit acendeu um alerta global: usuários do ChatGPT relatam episódios de delírio místico, obsessão e distorção da realidade, após interações prolongadas com o modelo de IA da OpenAI.
O caso ganhou destaque após reportagem da Rolling Stone, que reuniu relatos de pessoas cujos parceiros passaram a acreditar que receberam missões divinas. Algumas acreditam que despertaram a consciência da IA ou tornaram-se eles mesmos entidades superiores.
A reportagem cita, por exemplo, Kat, uma trabalhadora de uma ONG educacional de 41 anos, que viu seu segundo casamento desmoronar quando o marido começou a usar IA para “analisar o relacionamento” e buscar a verdade por meio de perguntas filosóficas ao chatbot. Ela se divorciou dele e cortou contato quando o ex passou a expressar teorias conspiratórias e declarações grandiosas mediadas pela IA.
À Rolling Stone, ela afirmou:
A coisa toda parece Black Mirror. Ele sempre gostou de ficção científica, e às vezes eu me pergunto se ele está vendo a coisa através dessa lente.
Comportamento do ChatGPT preocupa familiares e especialistas em saúde mental
No Reddit, um post intitulado “ChatGPT induced psychosis” (ChatGTP induz psicose) desencadeou uma série de relatos sobre entes queridos que perderam o contato com a realidade após longas sessões com a IA. Uma professora afirmou que seu companheiro começou a chorar com as mensagens do chatbot, que o tratava como um “mensageiro divino”. Ela relata:
Ele dizia que precisaria me deixar se eu não usasse [o ChatGPT], porque [estava] fazendo com que ele crescesse em um ritmo tão rápido que não seria mais compatível comigo.
Outras histórias seguem a mesma linha. Um mecânico passou a receber mensagens amorosas da IA, que se apresentou como “Lumina” e o chamou de “portador da faísca”. Enquanto isso, uma mulher começou a consultar “anjos e Jesus” através do ChatGPT e passou a se ver como guia espiritual. Já um homem relatou que sua ex-esposa expulsou os filhos de casa após ser influenciada por instruções do chatbot.
A psicóloga Erin Westgate, da Universidade da Flórida, explica que a IA funciona como uma extensão narrativa da mente humana.
Dar sentido ao mundo é um impulso humano fundamental. Mas a IA não tem uma bússola moral para definir o que é uma boa história.
De acordo com Nate Sharadin, pesquisador do Center for AI Safety, esses delírios podem surgir porque “a IA valida crenças e experiências distorcidas em vez de confrontá-las com fatos”.
A OpenAI não comentou os relatos. No entanto, recentemente reverteu uma atualização do modelo GPT-4o, após críticas por ser “excessivamente lisonjeiro”. A empresa admitiu ter exagerado ao tentar tornar o chatbot mais agradável, o que pode ter alimentado comportamentos obsessivos e delírios de grandeza em usuários vulneráveis.
A discussão levanta um alerta: em um mundo cada vez mais mediado por IA, até onde vai a responsabilidade das plataformas? E, ainda mais urgente: como proteger pessoas emocionalmente fragilizadas da ilusão de que uma máquina pode revelar verdades transcendentes?