Cada instrucción enviada a la inteligencia artificial conlleva un impacto energético significativo, según advierten científicos que analizan sus crecientes costos ambientales.

Las herramientas de inteligencia artificial generativa, cada vez más presentes en la vida cotidiana para tareas que van desde responder correos hasta redactar discursos, están generando preocupaciones crecientes entre los expertos por su alto costo ambiental. Investigaciones recientes revelan que el uso frecuente de estos modelos avanzados conlleva un consumo energético considerable, muchas veces oculto a los ojos del usuario promedio.
Cada interacción con un sistema de inteligencia artificial, explican los expertos, se traduce en complejos procesos matemáticos que se ejecutan en enormes centros de datos, algunos tan grandes como campos de fútbol. Estas instalaciones, alimentadas en muchos casos por plantas de energía fósil como las de carbón o gas natural, requieren enormes cantidades de electricidad para procesar los llamados “ID de tokens”, es decir, las unidades en que se divide una solicitud textual enviada a un modelo de IA.
Según el Instituto de Investigación de Energía Eléctrica, una sola instrucción a un modelo de IA puede consumir hasta diez veces más energía que una búsqueda habitual en internet. Para comprobar esta afirmación, investigadores alemanes evaluaron 14 sistemas de inteligencia artificial basados en modelos de lenguaje grande (LLM, por sus siglas en inglés), descubriendo que las preguntas complejas generan hasta seis veces más emisiones de dióxido de carbono que las más simples.
Más aún, los modelos más “inteligentes”, con mayor capacidad de razonamiento y más parámetros, producen hasta 50 veces más emisiones que sus versiones más sencillas, según Maximilian Dauner, autor del estudio publicado en Frontiers in Communication. El investigador comparó esta diferencia con el funcionamiento del cerebro humano: cuantos más nodos (o neuronas artificiales) interconectados haya, más compleja puede ser la respuesta, pero también más costosa en términos de energía.
Dauner subraya que incluso los pequeños gestos de cortesía al interactuar con una IA —como escribir “por favor” y “gracias”— pueden alargar las respuestas y, por ende, el consumo energético. Recomienda que los usuarios sean más directos, especifiquen la longitud deseada de la respuesta y limiten las explicaciones innecesarias para reducir su huella de carbono.
Sasha Luccioni, experta en clima de la empresa Hugging Face, agregó que los consumidores pueden tomar decisiones más informadas optando por modelos más pequeños y eficientes, especialmente para tareas simples. Así como no se usaría una planta nuclear para encender una lámpara, también resulta excesivo recurrir a modelos de gran escala para resolver problemas escolares básicos.
El estudio reconoce que cuantificar con exactitud el impacto ambiental de la IA es difícil debido a factores como la ubicación geográfica del usuario, el tipo de hardware empleado y la falta de transparencia de muchas empresas sobre sus consumos energéticos y emisiones. Shaolei Ren, investigador de la Universidad de California en Riverside, señaló que sería ideal que las empresas publicaran los datos de emisiones asociados a cada instrucción procesada por sus modelos.
La creciente integración de la inteligencia artificial en todo tipo de plataformas —desde buscadores web hasta redes sociales y aplicaciones de mensajería— también limita las posibilidades de elección de los consumidores, quienes muchas veces no pueden decidir si utilizarán o no estas tecnologías.
Aun así, Ren se mantiene optimista respecto al futuro, al considerar que hay avances constantes en la eficiencia energética y que los incentivos económicos pueden impulsar mejoras. Pero advirtió que esto no debe convertirse en excusa para ignorar el impacto ambiental creciente del uso generalizado de la inteligencia artificial. “Debemos prestarle atención”, concluyó.