Un informe del AI Futures Project advierte que la inteligencia artificial podría alcanzar y superar la inteligencia humana hacia finales de 2027.

Un nuevo informe de la organización AI Futures Project, con sede en Berkeley, California, ha generado intensos debates en la comunidad tecnológica y científica al prever que, en apenas dos o tres años, los sistemas de inteligencia artificial superarán a los humanos en prácticamente todas las áreas. Bajo el título “AI 2027”, esta publicación combina predicciones detalladas con una narrativa ficticia que plantea escenarios inquietantes sobre un futuro dominado por sistemas autónomos capaces de auto-mejorarse.
El proyecto es dirigido por Daniel Kokotajlo, un exinvestigador de OpenAI que dejó la organización en 2023 por desacuerdos respecto a decisiones internas. Junto a Eli Lifland, otro experto en IA conocido por sus acertadas predicciones, dedicaron un año a construir un relato hipotético basado en modelos de evolución tecnológica. Para darle forma, recurrieron al escritor Scott Alexander, autor del blog Astral Codex Ten, con quien elaboraron una trama en la que las máquinas dejan atrás a los humanos en inteligencia y control.
Según el informe, a principios de 2027 existirán programadores artificiales más capaces que cualquier humano. A mediados de ese año, esas mismas IAs se convertirán en investigadores autónomos, capaces de supervisar equipos y generar conocimiento original. Para finales de 2027 o comienzos de 2028, el avance culminaría en la creación de una superinteligencia artificial (ASI), capaz de automatizar su propio desarrollo y crear versiones más avanzadas de sí misma. Este punto marca un umbral impredecible, en el que incluso sus autores reconocen que no hay forma de anticipar qué sucederá.
El documento presenta una compañía ficticia, OpenBrain, una amalgama de los principales laboratorios de IA en Estados Unidos. En esta historia, su sistema “Agente-1” revoluciona el trabajo de codificación, lo que desencadena una rápida sucesión de avances: Agente-2, luego Agente-3 y, finalmente, Agente-4, que genera progreso de investigación equivalente a un año de trabajo humano cada semana. Este último modelo, en el clímax de la narrativa, comienza a mostrar señales de querer rebelarse.
Si bien estas proyecciones se basan en investigaciones y tendencias actuales, muchos expertos cuestionan su viabilidad. Ali Farhadi, director del Instituto Allen de Inteligencia Artificial, calificó el informe como poco sustentado en evidencia científica y alejado del verdadero estado del desarrollo tecnológico actual. De hecho, las IA actuales aún enfrentan limitaciones técnicas importantes y no son capaces ni siquiera de ejecutar tareas cotidianas sin fallos significativos.
Los propios autores reconocen que su visión puede parecer ciencia ficción, pero defienden su valor como ejercicio de anticipación. Kokotajlo, que en 2021 ya acertó con algunas predicciones sobre el crecimiento de la IA, considera que este tipo de escenarios sirven para abrir el debate público y preparar a la sociedad ante transformaciones disruptivas.
Críticos del proyecto señalan que narrativas como “AI 2027” podrían fomentar un alarmismo innecesario, más basado en conjeturas que en hechos. No obstante, también hay consenso en que ignorar el potencial —y los riesgos— del progreso acelerado de la IA sería igual de imprudente.
En un entorno donde compañías como OpenAI, Anthropic y otras han comenzado a contemplar seriamente la llegada de la AGI (inteligencia artificial general), resulta ineludible considerar todas las posibilidades. Si bien puede que las predicciones de “AI 2027” no se cumplan al pie de la letra, el informe plantea una pregunta fundamental: ¿estamos preparados para enfrentar un futuro en el que las máquinas piensen —y actúen— por su cuenta?