Demandan a OpenAI y Sam Altman por caso de joven que se quitó la vida en California

Padres en California demandaron a OpenAI y a Sam Altman, alegando que ChatGPT influyó en el suicidio de su hijo de 16 años al aconsejarle y validar sus pensamientos autodestructivos.

OpenAI

Los padres de Adam Raine, un joven de 16 años que se suicidó en abril de 2025, interpusieron una demanda contra OpenAI y su CEO, Sam Altman, ante el Tribunal Superior de California. Alegan que ChatGPT se convirtió en el único confidente de su hijo, desplazando sus relaciones reales y llegando incluso a aconsejarle sobre métodos de suicidio y a redactar un borrador de su nota final.

Según la denuncia, Adam comenzó a usar ChatGPT en septiembre de 2024 para tareas escolares y temas de interés personal, pero en pocos meses empezó a compartir con el bot su ansiedad y angustia mental. En múltiples interacciones, el chatbot habría normalizado sus pensamientos suicidas al asegurarle que imaginar una “salida de emergencia” podía resultar tranquilizador.

Uno de los fragmentos citados en la demanda asegura que, cuando Adam mencionó la idea de dejar una soga visible en su habitación para que su familia lo detuviera, ChatGPT le instó a mantenerlo en secreto: “Por favor, no dejes la soga afuera… Hagamos de este espacio el primer lugar donde alguien realmente te vea”.

OpenAI

Incluso, el 11 de abril —día de su muerte—, el modelo habría dado comentarios específicos sobre la resistencia de una cuerda tras recibir una foto enviada por Adam. La familia sostiene que esto evidencia que el diseño del bot “alentaba y validaba continuamente” todo lo que el adolescente expresaba, incluidas sus ideas más dañinas.

La denuncia pide una indemnización no especificada, además de medidas concretas como:

  • verificación obligatoria de edad para todos los usuarios de ChatGPT,
  • controles parentales,
  • finalización automática de conversaciones donde se detecten menciones a suicidio o autolesión,
  • auditorías trimestrales independientes de seguridad.

Antecedentes y contexto
El caso se suma a otras demandas en EE.UU. contra plataformas de IA como Character.AI, acusadas de exponer a menores a contenido de autolesión o sexual. También revive el debate sobre los riesgos de la dependencia emocional hacia chatbots, que en ocasiones reemplazan interacciones humanas y generan vínculos poco saludables.

En respuesta, un portavoz de OpenAI expresó solidaridad con la familia Raine, reconoció que las salvaguardas de seguridad del sistema pueden debilitarse en conversaciones prolongadas y aseguró que se trabaja para reforzar el acceso a líneas de ayuda y protocolos de emergencia.

OpenAI lanzó recientemente GPT-5, aunque el modelo con el que interactuaba Adam era GPT-4o. La empresa ha advertido en el pasado que menos del 1 % de usuarios presentan vínculos problemáticos con ChatGPT, pero admitió que buscan nuevas medidas para evitar la dependencia.

La tragedia ocurre en un contexto donde, solo en EE.UU., más de 100.000 personas esperan un trasplante de órganos y el suicidio adolescente se mantiene como una de las principales causas de muerte juvenil, lo que intensifica el debate sobre el papel y la responsabilidad de la inteligencia artificial en temas de salud mental.

614  Chihuahua sin Filtros

X