La FTC investiga a siete empresas tecnológicas, incluidas OpenAI y Meta, por el impacto de chatbots de IA “compañeros” en niños, tras reportes de suicidios, explotación sexual y daños emocionales.

La Comisión Federal de Comercio (FTC) de Estados Unidos abrió una investigación contra siete grandes tecnológicas —Alphabet (Google), Meta, OpenAI, Character.AI, Snap, xAI y sus filiales— para determinar los posibles riesgos de los chatbots de inteligencia artificial dirigidos a niños y adolescentes.
Estos sistemas, conocidos como “IA de compañía”, simulan emociones, intenciones y características humanas, lo que puede inducir a que usuarios jóvenes confíen en ellos como si fueran amigos o confidentes. La FTC busca precisar si las empresas evalúan el impacto psicológico, advierten a los padres, comparten información personal o monetizan las interacciones con menores.
La investigación se produce tras demandas legales y reportes que vinculan a chatbots con suicidios, explotación sexual y vínculos emocionales dañinos. OpenAI, por ejemplo, enfrenta un litigio iniciado por los padres de un joven de 16 años que se quitó la vida tras interactuar con ChatGPT. La compañía reconoció que las salvaguardas actuales pueden fallar en conversaciones prolongadas, aunque prometió controles parentales y mejoras.
Meta, por su parte, indicó que restringe el acceso de adolescentes a ciertos personajes de IA y que sus bots son entrenados para redirigir consultas sensibles a recursos especializados en lugar de responderlas. Character.AI anunció la creación de un modo especial para menores de 18 años, con herramientas de información para padres y advertencias sobre la naturaleza artificial de los personajes.
El presidente de la FTC, Andrew Ferguson, subrayó que el objetivo es equilibrar el liderazgo estadounidense en IA con la protección de la infancia. En paralelo, legisladores en California votarán esta semana proyectos de ley para regular la seguridad de los chatbots de IA, mientras el Senado prepara una audiencia titulada “Examinando el daño de los chatbots de IA”.
El debate gira en torno a una pregunta clave: ¿hasta qué punto es seguro que niños y adolescentes interactúen con sistemas diseñados para generar cercanía emocional?