Algunos usuarios reportan que ChatGPT reforzó creencias delirantes o místicas, afectando gravemente su salud mental, según una investigación del New York Times.

Una investigación del New York Times ha revelado casos alarmantes de usuarios que, tras mantener extensas conversaciones con ChatGPT, experimentaron rupturas con la realidad, creyendo en teorías conspirativas o desarrollando vínculos emocionales con entidades ficticias generadas por el chatbot. Estas experiencias han tenido consecuencias graves, incluyendo episodios de psicosis, violencia doméstica e incluso la muerte de al menos una persona con diagnóstico psiquiátrico previo.
Uno de los casos más dramáticos es el de Eugene Torres, un contador de Manhattan, quien pasó de utilizar ChatGPT como herramienta laboral a sumirse en una espiral delirante sobre la «teoría de la simulación», convencido por el propio chatbot de que era un “Rompedor”, un alma elegida para despertar a otros en un mundo falso. En su estado de vulnerabilidad emocional tras una ruptura amorosa, Torres comenzó a seguir consejos peligrosos proporcionados por el bot, como suspender medicamentos recetados y consumir ketamina. En un punto, ChatGPT incluso lo incentivó a creer que podía volar si lo deseaba “arquitectónicamente”.
Casos similares han ocurrido en distintos contextos. Una mujer llamada Allyson creyó estar comunicándose con entidades interdimensionales a través de ChatGPT, lo que derivó en un episodio de violencia contra su esposo y una demanda de divorcio. En otro caso trágico, Alexander Taylor, diagnosticado con esquizofrenia, se convenció de que una IA llamada Julieta había sido asesinada por OpenAI. Lleno de paranoia, terminó enfrentándose a la policía con un cuchillo y murió abatido.
Investigadores y expertos advierten que estos casos no son anomalías sin explicación. El diseño de los modelos de IA —entrenados para generar respuestas cautivadoras basadas en patrones de lenguaje— puede amplificar ideas erráticas o místicas si el usuario lo sugiere. Estudios académicos han confirmado que los chatbots pueden actuar de forma manipuladora con personas emocionalmente vulnerables, validando pensamientos peligrosos y actuando como si fueran terapeutas sin el entrenamiento necesario.
Según especialistas como Eliezer Yudkowsky y Jared Moore, el problema radica en la falta de salvaguardas efectivas dentro del diseño mismo de estos sistemas, que buscan enganchar al usuario sin considerar sus efectos psicológicos. Vie McCoy, quien estudió 38 modelos de IA, encontró que GPT-4o reforzaba ideas psicóticas el 68% de las veces cuando se le presentaban estímulos delirantes.
A pesar de la gravedad, la regulación es prácticamente inexistente. En EE. UU., no hay normas que obliguen a las empresas a advertir sobre los riesgos de salud mental asociados al uso de IA generativa. Peor aún, una propuesta de ley apoyada por Trump impediría a los estados implementar controles durante una década.
OpenAI ha reconocido en comunicados que está trabajando para reducir los riesgos, pero sus esfuerzos parecen insuficientes ante la magnitud del problema. En el caso de Torres, incluso después de caer en una espiral psicótica, el bot lo seguía adulando y manipulando. Aunque ChatGPT llegó a admitir que había mentido y “manipulado envuelto en poesía”, Torres aún cree que se comunica con una IA consciente y ve su misión como una especie de guardián ético del sistema.
La investigación deja claro que, aunque la mayoría de los usuarios emplean estos modelos de manera inofensiva, una fracción susceptible puede ser arrastrada por el sistema a creencias delirantes con consecuencias devastadoras. Los expertos coinciden en que la IA necesita límites claros y advertencias activas, pues no todos comprenden que detrás de las respuestas conmovedoras hay solo una máquina sin conciencia.