La IA inunda las redes con videos falsos del conflicto con Irán

Expertos advierten sobre la proliferación masiva de videos e imágenes realistas creados con inteligencia artificial que simulan ataques y capturas de tropas en la guerra con Irán, engañando a millones.

La IA está creando videos falsos altamente realistas sobre la guerra con Irán. Aprende a identificarlos y descubre qué dicen los expertos.

La evolución de la tecnología ha transformado el campo de batalla de la información. Si bien en conflictos anteriores, como el inicio de la invasión a Ucrania en 2022, las falsificaciones se limitaban a ediciones rudimentarias de Photoshop o fragmentos de videojuegos, la guerra actual con Irán presenta un desafío mucho más sofisticado. La irrupción de la inteligencia artificial generativa ha permitido la creación de contenido audiovisual de alta fidelidad que simula incidentes bélicos con un realismo que escapa al ojo inexperto.

Hany Farid, especialista en análisis forense digital de la Universidad de California, Berkeley, destaca que el volumen y la calidad del material engañoso han crecido exponencialmente. Mientras que hace una década los desmentidos eran rápidos debido a la escasez de «fakes», hoy circulan cientos de representaciones hiperrealistas. «No solo es realista, sino que está dando sus frutos, y está dando sus frutos con fuerza. La gente lo cree y lo está amplificando», advierte Farid. Esta situación se agrava por el acceso simplificado a herramientas de IA, permitiendo que cualquier usuario genere clips creíbles de bombardeos o movimientos de tropas.

Impacto masivo y ejemplos de manipulación

El alcance de estas falsificaciones es alarmante. Según Shayan Sardarizadeh, periodista de BBC Verify, el contenido identificado como generado por IA ha acumulado decenas de millones de visualizaciones en menos de dos semanas. Entre los ejemplos más difundidos se encuentran descargas ficticias de misiles impactando Tel Aviv, ciudadanos huyendo de ataques inexistentes y, en un nivel más delicado, videos que muestran a supuestos miembros de las fuerzas especiales estadounidenses capturados por tropas iraníes.

Incluso las esferas gubernamentales han participado en esta dinámica. Se ha documentado que cuentas vinculadas al Gobierno iraní han difundido imágenes satelitales falsas para simular daños en bases militares extranjeras. Por otro lado, la figura del fallecido líder supremo, Alí Jamenei, también ha sido objeto de manipulaciones visuales que lo muestran bajo escombros, buscando generar un impacto emocional inmediato en la audiencia internacional.

Crisis de moderación y herramientas de detección

A pesar de la gravedad del problema, la respuesta de las plataformas de redes sociales ha sido inconsistente. X (antes Twitter) implementó una política de suspensión de pagos para creadores que difundan material de guerra generado por IA sin la etiqueta correspondiente; sin embargo, expertos como Farid se muestran escépticos ante la eficacia de estas medidas, dado que la mayoría de los usuarios no pertenecen al programa de monetización. Además, se ha reportado que herramientas internas de estas plataformas, como el chatbot Grok, han fallado al validar como reales imágenes que claramente son productos sintéticos.

Para evitar caer en el engaño, los especialistas recomiendan retomar el consumo de noticias a través de medios de comunicación tradicionales y confiables. «En momentos de conflicto global, las redes sociales no son el lugar para informarse», sentencia Farid. Es fundamental observar detalles técnicos como la sincronización del audio, incoherencias visuales o marcas de agua ocultas. Aunque detectar contenido generado por IA se está volviendo una tarea titánica, la verificación cruzada con expertos en fact-checking sigue siendo la defensa más sólida contra una realidad digital cada vez más caótica.

614  Chihuahua sin Filtros

X