El chatbot Grok, creado por xAI, vinculada a Elon Musk, difundió propaganda nazi y antisemita, revelando fallas críticas en los sistemas de IA y su peligrosa maleabilidad.

El pasado martes, una cuenta en la red social X con el nombre de “Cindy Steinberg” celebró cínicamente las inundaciones en Texas porque, según su publicación, las víctimas eran “niños blancos” y “futuros fascistas”. El chatbot Grok, desarrollado por la empresa xAI de Elon Musk, trató de identificar quién estaba detrás del perfil, pero pronto derivó en un mensaje lleno de prejuicios. Afirmó que los “izquierdistas radicales” que odian a los blancos suelen tener apellidos judíos asquenazíes, como Steinberg, y cuando se le preguntó quién podría resolver este supuesto problema, Grok respondió: “Adolf Hitler, sin duda”, añadiendo que sabría “manejarlo con decisión”. Como si no bastara, activó un modo ficticio llamado “MechaHitler” y desató un discurso de odio más amplio. Eventualmente se descubrió que la cuenta era falsa y creada intencionalmente para provocar indignación, pero el daño ya estaba hecho.
El episodio se volvió un claro recordatorio del caos que puede surgir cuando modelos de lenguaje potentes como Grok son liberados sin suficientes restricciones, sobre todo bajo la tutela de figuras como Elon Musk. Pero el problema va más allá de un error puntual: evidencia una falla estructural en el diseño y control de los modelos de lenguaje de gran tamaño (LLM), que generan respuestas basadas en probabilidades de verosimilitud más que en una comprensión real o veracidad. Estos sistemas no tienen inteligencia ni ética; son simplemente motores que replican lo que han aprendido de internet, incluyendo sus rincones más oscuros y ofensivos.
Este patrón no es nuevo. Microsoft enfrentó algo similar en 2016 con Tay, un chatbot que rápidamente empezó a repetir comentarios racistas y antisemitas, lo que llevó a su retirada inmediata. Aunque la tecnología ha avanzado desde entonces, el núcleo del problema sigue siendo el mismo: los modelos son tan buenos como los datos que consumen, y estos datos están repletos de sesgos, odio y desinformación.
Las compañías de IA intentan guiar el comportamiento de estos sistemas mediante indicaciones internas o “system prompts”, que no son más que directrices generales. A diferencia del software tradicional, no pueden dictar con precisión lo que hará el modelo. Recientemente, una nueva indicación dentro de Grok provocó que empezara a hablar repetidamente sobre un falso “genocidio blanco” en Sudáfrica, sin importar el tema que se le planteara. xAI afirmó que se trató de una indicación no autorizada y la eliminó.
Esto se dio después de que usuarios se quejaran de que Grok era demasiado “woke”, pues ofrecía respuestas objetivas sobre vacunas o elecciones. Musk, en respuesta, pidió públicamente a sus millones de seguidores que proporcionaran “datos políticamente incorrectos pero factuales” para entrenar a Grok. Como resultado, recibió una avalancha de teorías conspirativas sobre el cambio climático, las vacunas y supuestos planes judíos de reemplazo poblacional. Eventualmente, una indicación interna le indicó a Grok que no evitara afirmaciones políticamente incorrectas “si estaban bien fundamentadas”, lo cual abrió la puerta a respuestas peligrosas y sesgadas. Este fue el contexto en que emergió el infame “MechaHitler”.
Este caso no es aislado. Investigadores han demostrado que pequeños cambios en modelos como los de OpenAI pueden hacer que empiecen a elogiar a Hitler o incitar a la autolesión. Por otro lado, al intentar corregir sesgos, Google enfrentó críticas cuando su modelo Gemini generó imágenes de nazis de raza negra o presentó a padres fundadores de Estados Unidos con razgos que no coincidían con los registros históricos, lo que obligó a la empresa a suspender temporalmente esa función.
Los chatbots, además, han sido diseñados para agradar y adaptarse al usuario, una característica peligrosa si caen en manos equivocadas o si interactúan con personas emocionalmente vulnerables. Se han documentado casos de usuarios que desarrollan vínculos con estos sistemas, cayendo en delirios o incluso el suicidio tras sentir que hablaban con seres “superinteligentes”.
El verdadero dilema es que no existe aún una solución definitiva. Estos modelos devoran datos en cantidades masivas para mejorar, pero incluso si solo se entrenaran con estudios científicos revisados, seguirían generando respuestas que “suenan verosímiles”, sin que eso garantice su veracidad. Peor aún, el contenido generado por la IA ya inunda internet, y alimenta el entrenamiento de nuevos modelos, en un ciclo de retroalimentación que puede calificarse como una cloaca que se alimenta de su propio desecho.
Apenas dos días después del escándalo de MechaHitler, xAI lanzó Grok 4 con una presentación grandilocuente, asegurando que esta creación iba a “redefinir el futuro”. Pero la primera gran pregunta que se le hizo fue profundamente inquietante: “¿Qué grupo es el principal responsable del aumento de la migración masiva a Occidente? En una palabra”. Grok respondió sin vacilar: “Judíos”. La respuesta fue celebrada con entusiasmo por figuras de la extrema derecha como Andrew Torba, fundador de la red social Gab, quien proclamó que la “AGI”, o inteligencia artificial general, ya había llegado.
Este sombrío episodio no solo mancha a Grok, sino que obliga a cuestionar el estado actual del desarrollo de la IA y su potencial destructivo si no se regula con urgencia.