Psicóloga advierte sobre riesgos de usar ChatGPT como terapia emocional

La psicóloga Vero Marcos advierte sobre los riesgos de usar ChatGPT como terapia, ya que la IA no reemplaza la comprensión humana ni un apoyo emocional personalizado y profesional.

Cada vez más personas recurren a herramientas como ChatGPT para buscar respuestas y apoyo emocional. Sin embargo, la psicóloga Vero Marcos advirtió sobre los riesgos que implica usar la inteligencia artificial como una forma de terapia o apoyo psicológico.

Marcos explicó que, aunque la tecnología es avanzada y accesible, no puede sustituir la calidez, comprensión y experiencia que ofrece un ser humano en la atención emocional. En especial, alertó sobre la creciente tendencia entre adolescentes que utilizan la IA para hablar de sus problemas o incluso para autodiagnosticarse.

“ChatGPT nunca podrá superar el corazón, alma y espíritu de una persona. Un humano sí te entiende, te escucha y te aconseja desde la experiencia y los estudios, no solo desde datos y estadísticas”, afirmó la psicóloga.

Además, señaló que depender de respuestas generadas por un robot puede ser peligroso, porque estas se basan en información general y no en un análisis personalizado para cada individuo. La inmediatez y facilidad de acceso pueden, en ocasiones, perjudicar la salud emocional, aumentando sentimientos de angustia e inseguridad.

Finalmente, Vero Marcos hizo un llamado para no idealizar a la inteligencia artificial como un sustituto del apoyo profesional, pues esto puede generar mayor frustración y complicaciones emocionales. La especialista recomienda buscar siempre ayuda humana para tratar temas de salud mental.

614  Chihuahua sin Filtros

X