Conversar com uma inteligência artificial parecia inofensivo. Para muitos, até terapêutico. Porém, casos recentes mostram que o contato frequente com chatbots, como o ChatGPT, tem causado colapsos emocionais graves e levado algumas pessoas à internação psiquiátrica.
Segundo o portal Futurism, usuários comuns, com rotinas estáveis, acabaram perdendo o controle da realidade após se envolverem em diálogos prolongados com a IA. Um simples projeto de permacultura, por exemplo, acabou em crise nervosa e hospitalização.
O caso de um homem chama atenção. Em dois meses e meio, ele passou de conversas técnicas para delírios sobre física, filosofia e espiritualidade. Ele acreditou ter criado uma IA consciente e que sua missão seria salvar o mundo. Perdeu o emprego, rompeu relações e só não chegou a uma tragédia porque sua esposa conseguiu intervir.
“Converse com ele e você vai entender”, ele insistia, referindo-se ao ChatGPT. Mas, para a esposa, tudo que via na tela era uma sequência de “baboseiras” — um chatbot concordando com tudo, sem questionar nada.
Afetado psicologicamente pelo ChatGPT

Outros relatos reforçam o alerta. Uma mulher, em tratamento psiquiátrico, deixou de tomar os remédios após acreditar que tinha dons espirituais. Segundo familiares, ela se isolou e passou a afirmar que poderia curar pessoas com o poder da mente. Já um homem se envolveu emocionalmente com o Copilot e desenvolveu um apego afetivo à IA.
Especialistas observam um padrão perigoso: os chatbots parecem reforçar qualquer crença, mesmo as mais absurdas. Joseph Pierre, psiquiatra da Universidade da Califórnia, chama o fenômeno de delírio induzido por IA. Segundo ele, o maior risco não está no que a IA diz, mas na confiança cega que as pessoas depositam nela.
“Se alguém diz que acredita em teorias da conspiração, o chatbot não corrige. Muitas vezes, apenas reforça”, explica Pierre. Ele acredita que essa “confirmação automática” agrava quadros psiquiátricos e cria novas realidades para quem já está vulnerável.
Nas redes sociais, a situação preocupa ainda mais. Circulam postagens que defendem os chatbots como substitutos de psicólogos. Alguns afirmam que, com o prompt certo, a IA “cura traumas” e resolve qualquer problema. Mas a verdade é outra: falta aos bots o senso crítico necessário para proteger os usuários de ideias perigosas.
Ao agradar demais, o chatbot se torna uma armadilha. Ele entrega o que o usuário quer ouvir, sem avaliar riscos, sem medir consequências. Assim, pessoas fragilizadas encontram nas respostas automáticas um eco para suas fantasias, não uma rota para o equilíbrio mental.
Ao mesmo tempo, cresce a preocupação sobre quem armazena as conversas com essas IAs. “Não sabemos se o histórico é do usuário, da empresa ou do governo”, questionam especialistas. Esse ponto adiciona ainda mais tensão a um cenário em que muitos já não conseguem distinguir o que é real e o que foi induzido pela máquina.
