La psicóloga Vero Marcos advierte sobre los riesgos de usar ChatGPT como terapia, ya que la IA no reemplaza la comprensión humana ni un apoyo emocional personalizado y profesional.

Cada vez más personas recurren a herramientas como ChatGPT para buscar respuestas y apoyo emocional. Sin embargo, la psicóloga Vero Marcos advirtió sobre los riesgos que implica usar la inteligencia artificial como una forma de terapia o apoyo psicológico.
Marcos explicó que, aunque la tecnología es avanzada y accesible, no puede sustituir la calidez, comprensión y experiencia que ofrece un ser humano en la atención emocional. En especial, alertó sobre la creciente tendencia entre adolescentes que utilizan la IA para hablar de sus problemas o incluso para autodiagnosticarse.
“ChatGPT nunca podrá superar el corazón, alma y espíritu de una persona. Un humano sí te entiende, te escucha y te aconseja desde la experiencia y los estudios, no solo desde datos y estadísticas”, afirmó la psicóloga.
Además, señaló que depender de respuestas generadas por un robot puede ser peligroso, porque estas se basan en información general y no en un análisis personalizado para cada individuo. La inmediatez y facilidad de acceso pueden, en ocasiones, perjudicar la salud emocional, aumentando sentimientos de angustia e inseguridad.
Finalmente, Vero Marcos hizo un llamado para no idealizar a la inteligencia artificial como un sustituto del apoyo profesional, pues esto puede generar mayor frustración y complicaciones emocionales. La especialista recomienda buscar siempre ayuda humana para tratar temas de salud mental.