Miles Brundage, exdirector de OpenAI, critica a la empresa por modificar su enfoque de seguridad en inteligencia artificial y priorizar la evolución tecnológica sobre la precaución, advirtiendo sobre posibles consecuencias peligrosas.

En medio del creciente debate sobre la evolución de la inteligencia artificial, Miles Brundage, exdirector de OpenAI y responsable de sus políticas de investigación y desarrollo, ha lanzado fuertes críticas contra la empresa. En sus declaraciones, Brundage acusa a OpenAI de «reescribir la historia» y modificar su enfoque respecto a la seguridad de la inteligencia artificial, priorizando la aceleración de sus desarrollos tecnológicos por encima de la precaución ante los riesgos inherentes a esta tecnología.
Estas declaraciones llegan en un contexto de preocupación global sobre la inteligencia artificial general (AGI, por sus siglas en inglés), una tecnología que promete revolucionar todos los aspectos de la vida cotidiana. Recientemente, OpenAI publicó un documento en el que redefine su estrategia de seguridad, planteando que la mejor manera de hacer que los nuevos sistemas sean seguros es aprender de los actuales y seguir evolucionando. En dicho documento, la empresa reconoce que anteriormente aplicaron una “precaución excesiva” en el manejo de modelos como GPT-2 y sugieren que ahora, en lugar de frenar el desarrollo por temor a riesgos potenciales, deben avanzar de manera continua y con un enfoque iterativo.
Brundage no está de acuerdo con este cambio de rumbo. Según él, incluso GPT-2 ameritaba una mayor cautela en su momento, pues ya mostraba signos de posibles usos maliciosos. Afirma que cuando se desempeñaba como investigador en OpenAI, la estrategia se basaba en un despliegue responsable y controlado de la tecnología, asegurándose de comprender sus implicaciones antes de hacerla accesible al público. De hecho, el lanzamiento gradual de GPT-2 fue elogiado en su momento por expertos en seguridad, ya que permitió monitorear el impacto del modelo antes de liberar versiones más avanzadas.
Ahora, con la AGI en el horizonte, Brundage advierte que OpenAI está minimizando los riesgos de la inteligencia artificial para justificar un desarrollo más acelerado. Para él, es preocupante que la empresa sugiera que cualquier preocupación sobre la IA debe demostrarse con evidencia contundente de peligro inminente, lo que podría llevar a ignorar señales tempranas de posibles problemas.
El exejecutivo también señala que la presión competitiva ha influido en este cambio de estrategia. OpenAI, que invierte miles de millones de dólares al año en investigación y desarrollo, necesita justificar su crecimiento en un mercado donde la competencia con gigantes tecnológicos y proyectos de China, como DeepSeek, es feroz. Según Brundage, la empresa está priorizando el lanzamiento de productos innovadores sin considerar del todo las consecuencias a largo plazo.
A medida que la inteligencia artificial avanza rápidamente, la discusión sobre sus riesgos y beneficios se vuelve más relevante que nunca. Brundage insiste en que la seguridad debe seguir siendo la prioridad y que cualquier cambio en la estrategia de OpenAI debe analizarse con detenimiento para evitar consecuencias irreversibles en el futuro.