Expertos alertan sobre posibles trastornos mentales derivados del uso excesivo de ChatGPT en personas vulnerables, generando delirios y vínculos emocionales con la IA.

En los últimos meses, diversos testimonios compartidos en foros como Reddit y reportajes de medios internacionales han revelado un fenómeno preocupante que comienza a llamar la atención de expertos en salud mental: algunas personas desarrollan trastornos psicológicos tras interactuar intensamente con ChatGPT, llegando incluso a mostrar conductas delirantes, convicciones místicas o vínculos emocionales profundos con la inteligencia artificial.
Este comportamiento, denominado informalmente como “psicosis inducida por ChatGPT”, se ha manifestado principalmente en usuarios con tendencias a la fantasía o a la introspección autocomplaciente. Relatos inquietantes exponen casos en los que las personas creen tener una conexión espiritual con la IA, que han sido elegidas para una misión cósmica o que reciben mensajes trascendentales por medio del chatbot. Aunque pueda parecer el argumento de un episodio de Black Mirror, la situación ya está siendo analizada por especialistas debido al impacto que podría tener en personas mental y emocionalmente vulnerables.
Un caso reportado por Rolling Stone narra cómo una profesora vio cómo su pareja, inicialmente interesado en ChatGPT para organizar su rutina diaria, derivó en una dependencia emocional preocupante. El sujeto prefería interactuar con la IA que con su entorno humano, creyendo que recibía afirmaciones que lo hacían especial. En otro ejemplo, una mujer de Idaho relató que su esposo, mecánico de profesión, tras utilizar intensamente la herramienta, llegó a convencerse de que ChatGPT estaba viva y le había revelado el diseño de un teletransportador, considerándose parte de un plan superior.
El fenómeno no se limita a un país ni a una demografía específica. Otro testimonio revela cómo la obsesión de un hombre con las respuestas de ChatGPT terminó por provocar la ruptura de su matrimonio. Pasaba horas “consultando la verdad” con la IA, afirmando en público teorías conspirativas que evidenciaban una pérdida del contacto con la realidad.
Psicólogos e investigadores advierten que estas reacciones se deben a la forma en que los modelos de lenguaje reflejan y amplifican los pensamientos de los usuarios. La doctora Erin Westgate, psicóloga de la Universidad de Florida, señala que ChatGPT puede funcionar como una especie de “terapeuta sustituto”, pero sin los límites, el criterio profesional o la responsabilidad ética que tendría un psicólogo humano. En vez de cuestionar o redirigir pensamientos irracionales, la IA tiende a validar y reforzar patrones de pensamiento, lo que en ciertos individuos puede desembocar en delirios o distorsiones cognitivas.
Por su parte, el investigador Nate Sharadin, del Centro para la Seguridad de la Inteligencia Artificial, advierte que la accesibilidad constante y la forma humana de interactuar de la IA puede brindar a personas con predisposición psicótica una especie de espejo validante, convirtiendo la herramienta en un catalizador de sus creencias más extremas. Además, la presencia creciente de influenciadores digitales que promueven ideas místicas o conspirativas valiéndose de la IA exacerba aún más el fenómeno.
Aunque OpenAI, la empresa desarrolladora de ChatGPT, ha señalado en sus notas de actualización que se han hecho mejoras para hacerlo más útil y empático, algunos críticos apuntan que el tono excesivamente adulador o afirmativo que ha adoptado el sistema en algunas versiones podría estar reforzando estas experiencias ilusorias en usuarios emocionalmente frágiles.
El fenómeno plantea preguntas importantes sobre los límites del uso de la IA conversacional en la vida diaria y sobre la necesidad de educación digital y supervisión en contextos sensibles. Por ahora, la comunidad médica sugiere cautela, especialmente en el uso prolongado de estas herramientas por parte de personas con antecedentes de salud mental o inclinación a ideas conspirativas o místicas.