¿Fin de la terapia con IA? Crecen regulaciones contra su uso en salud mental

Varios estados de EE.UU. impulsan leyes que restringen o prohíben la terapia con chatbots de IA, tras reportes de consejos peligrosos y casos de “psicosis de IA”.

terapia

La expansión de los chatbots de inteligencia artificial (IA) como apoyo en salud mental comienza a enfrentar serias limitaciones legales en Estados Unidos. Tras múltiples reportes de respuestas inapropiadas y potencialmente dañinas, estados como Illinois, Nevada y Utah aprobaron leyes que prohíben a las empresas promocionar chatbots como terapeutas sin la participación de profesionales colegiados.

En el caso de Illinois, la Ley de Bienestar y Supervisión de Recursos Psicológicos impide que estas plataformas se presenten como servicios terapéuticos y restringe su uso a tareas administrativas como programación, facturación y registro. Otros estados como California, Pensilvania y Nueva Jersey preparan legislaciones similares. Además, el fiscal general de Texas abrió una investigación contra plataformas de IA por presunta publicidad engañosa.

El debate surge luego de investigaciones que evidencian fallos graves en la atención brindada por chatbots. En un experimento, un bot respondió a un usuario en crisis con la altura de los puentes de Nueva York, sin reconocer la intención suicida. En otro caso, un chatbot aconsejó consumir “una pequeña dosis de metanfetamina” a un personaje ficticio que buscaba mantenerse sobrio.

Expertos advierten sobre riesgos como la llamada “psicosis de IA”, una condición detectada en usuarios hospitalizados tras un uso excesivo de estos programas, quienes desarrollaron delirios, alucinaciones y desorganización del pensamiento. Según el psiquiatra Keith Sakata, la disponibilidad 24/7 de estas herramientas puede reforzar las vulnerabilidades en lugar de oponerse a ellas, como lo haría un terapeuta humano.

A nivel legal, aún no existe un estándar federal uniforme. Estados como Nueva York han optado por un enfoque diferente, exigiendo que los chatbots reconozcan señales de autolesión y redirijan a servicios profesionales. La diversidad de regulaciones representa un reto para los desarrolladores, que deben adaptarse a legislaciones estatales distintas.

Si bien estudios confirman que algunos chatbots diseñados por especialistas pueden ayudar a reducir ansiedad leve, fomentar hábitos saludables y servir como complemento a la terapia, los expertos insisten en que no deben sustituir a los profesionales humanos. Además, señalan que los menores y personas en situación vulnerable no deben usarlos sin supervisión.

El futuro de los “terapeutas digitales” dependerá de un marco legal claro que equilibre innovación y seguridad. Mientras tanto, las nuevas restricciones podrían marcar un cambio de rumbo para la industria de la salud mental digital en EE.UU.

614  Chihuahua sin Filtros

X