Pasar al contenido principal
Tecnológico de Monterrey Tecnológico de Monterrey
  • Inicio
  • Noticias
  • Recursos
  • Nosotros
  • Contacto

Compartir

La guerra de las pantallas

La guerra de las pantallas: desinformación, videos falsos e inteligencia artificial en el conflicto de Medio Oriente

2026-03-10
Informe especial por Fernando Gutiérrez
Noticias

En las guerras de esta nueva era no solo circulan misiles, también circulan imágenes, rumores, montajes y narrativas diseñadas para sembrar miedo, indignación o confusión. Eso es justamente lo que muestra una de nuestras investigaciones más recientes sobre desinformación en torno al conflicto relacionado con Irán. En los primeros días de la escalada informativa, las redes sociales se llenaron “nuevamente” de videos viejos presentados como actuales, imágenes generadas con inteligencia artificial (IA) difundidas como si fueran evidencia y escenas reales sacadas de contexto para hacerlas encajar en una historia falsa. El patrón es claro. En tiempos de crisis, la mentira visual viaja rápido y suele presentarse con apariencia de prueba (Wardle & Derakhshan, 2017).

Monitoreo y verificación de la información difundida en medios digitales acerca del conflicto en Medio Oriente

En nuestro ejercicio de investigación analizamos una muestra correspondiente al periodo del 28 de febrero al 6 de marzo de 2026 y encontramos tres mecanismos dominantes de desinformación. El primero fue el reciclaje de videos y fotografías antiguas, publicados de nuevo como si documentaran hechos recientes. El segundo, la circulación de contenido sintético creado con IA: supuestos bombardeos, escenas urbanas destruidas, imágenes de cadáveres y videos “captados sobre el terreno” que en realidad no eran registros auténticos. El tercero fue el reetiquetado geográfico, una táctica sencilla pero muy eficaz: tomar una explosión ocurrida en otro país o en otro momento y presentarla como si hubiera sucedido en el centro mismo del conflicto (Wardle & Derakhshan, 2017).

Uno de los aspectos más inquietantes que revela nuestra investigación es que la desinformación no depende solo de textos engañosos, sino de imágenes manipuladas. Cuando una imagen parece real, mucha gente la interpreta como prueba concluyente. Ahí radica gran parte del problema. Reuters documentó, por ejemplo, una imagen que mostraba supuestamente el cuerpo de Ali Khamenei atrapado entre escombros; el análisis concluyó que se trataba de contenido generado con IA, identificado con muy alta confianza por herramientas de detección asociadas a SynthID (Reuters Fact Check, 2026). AFP verificó otro caso, un video que mostraba supuestas tropas estadounidenses ya dentro de Irán. El material presentaba inconsistencias visuales y fue clasificado como producción sintética, además de que no existían reportes oficiales, en ese momento, que confirmaran la presencia de tropas terrestres de Estados Unidos en ese territorio (AFP Fact Check, 2026a).

Manipulación sintética con inteligencia artificial

No se trata de casos aislados. En nuestro análisis encontramos ejemplos de videos que aseguraban mostrar ataques iraníes contundentes sobre Tel Aviv, pero que en realidad tenían señales de generación artificial, como banderas deformadas, automóviles inconsistentes o patrones repetidos dentro del encuadre. Maldita.es detectó varios de estos materiales y advirtió que, aunque a simple vista podían parecer registros auténticos, presentaban rasgos muy típicos del contenido sintético (Maldita.es, 2026a, 2026b). FactNameh, por su parte, documentó en persa la difusión de videos falsos que supuestamente mostraban la destrucción de ciudades israelíes, cuando en realidad algunos eran generados con IA y otros eran materiales antiguos reutilizados, incluso de desastres ocurridos en otros países (FactNameh, 2026a, 2026b).

La desinformación en situaciones de guerra “funciona” (para alguna de las partes involucradas) porque mezcla velocidad, emoción y verosimilitud. Un video de una explosión no necesita ser verdadero para volverse viral; le basta con parecer plausible y llegar en el momento exacto en que la audiencia está buscando explicaciones urgentes. En el monitoreo realizado encontramos que los primeros días del conflicto se concentró el mayor volumen de reciclaje de materiales y piezas engañosas, algo que coincide con la lógica de saturación informativa típica en escenarios de crisis (Silverman, 2014). El desorden informativo no aparece después, aparece desde el inicio, casi al mismo tiempo que los hechos.

Frente a este panorama, los medios institucionales necesitan fortalecer sus capacidades de monitoreo y verificación si realmente buscan convertirse en fuentes confiables en contextos de alta incertidumbre. En situaciones como un conflicto internacional, la confianza no se gana solo publicando información, sino demostrando que existe un método riguroso para detectarla, contrastarla y explicarla con rapidez. De ahí la relevancia de construir sistemas de monitoreo bilingües, en español y persa, capaces de detectar, traducir, clasificar y verificar narrativas falsas antes de que se consoliden. Para este caso particular se deben considerar fuentes oficiales, verificadores profesionales, medios en persa y plataformas como X, Telegram, TikTok, Instagram, Facebook y YouTube. No basta con observar qué circula; se requiere seguir la ruta de cada contenido, identificar quién lo amplifica, cómo cambia entre idiomas y qué variantes narrativas adopta en su propagación (Wardle & Derakhshan, 2017).

La siguiente tabla presenta un registro sistematizado de piezas de desinformación vinculadas con el conflicto relacionado con Irán, organizadas a partir de la fecha de primera detección o viralización, la afirmación falsa o engañosa, la plataforma de difusión, los principales productores o amplificadores, y el alcance estimado cuando está disponible. Además, integra los elementos clave de verificación, como la evidencia utilizada para desmentir cada caso, las fuentes primarias o especializadas que respaldan la comprobación, el nivel de confianza asignado al hallazgo y la acción correctiva recomendada.

Tabla 1. Piezas de desinformación vinculadas con el conflicto relacionado con Irán

Fecha
(primera detección o viralización)

Afirmación
(texto resumido)

Plataforma

Productores /
amplificadores

Alcance
(si disponible)

Evidencia de desmentido

Fuentes primarias /
verificación

Confianza

Acción correctiva

2026-03-01

“Daños en Tel Aviv por ataque iraní (03/01/2026)” usando videos antiguos

Instagram / Facebook

Cuentas en varios idiomas

ND

Coincidencia con material de junio 2025; búsqueda inversa y comparación con video AFP del evento anterior

(AFP Fact Check, 2026c). Comparativa y origen.

Alto

Publicar desmentido con comparativas; etiquetar como “fuera de contexto”; archivar enlaces

2026-03-02

“Tropas de EE. UU. ya están en Irán” (video nocturno)

Facebook / TikTok / X

Página “DailymindAi” (según AFP)

ND

Inconsistencias visuales, detector SynthID “muy alta” probabilidad; sin reportes oficiales de tropas en Irán

(AFP Fact Check, 2026a). Referencia a postura oficial sobre tropas

Alto

Marcar como “sintético”; reportar a plataforma; emitir nota interna (riesgo alto)

2026-03-03

“Irán atacó base militar estadounidense en Yibuti” (video explosión)

TikTok (y replicado)

Publicación en amárico; cuenta de TikTok archivada

>1,700 compartidos (y likes en archivo)

Video corresponde a explosión en Port Sudan (mayo 2025), no a Yibuti

(AFP Fact Check, 2026b). Origen y métricas

Alto

Desmentido rápido con “origen real, fecha”; priorizar por alta interacción

2026-03-01

“Foto del cuerpo de Khamenei bajo escombros” (imagen “real”)

Redes varias

ND

ND

Detección de IA con herramienta de Google (SynthID) con “muy alta” confianza; no hay foto oficial pública del cuerpo

(Reuters Fact Check, 2026)

Alto

Etiquetar “sintético”; incluir nota metodológica (watermark ≠ descarta otras IA)

2026-03-02

“Explosión masiva en embajada de EE. UU. en Riad” (video autopista)

X (y replicación cruzada)

Spencer Hakimian; amplificado por Bret Baier (según AFP)

Amplificación a audiencia masiva; post borrado por un amplificador (según AFP)

Geolocalización: autopista en Riad, a ~25 km de la embajada; video circulaba desde inicios de febrero

(AFP Fact Check, 2026d). Geolocalización, amplificación

Alto

Desmentido con geoloc; pedir corrección a amplificadores; “nota de actualización” si se borra post

2026-03-02

“Pánico en Tel Aviv tras ataque iraní” (multitud corriendo)

Facebook / Instagram

Post en hindi (ejemplo en AFP)

ND

Video es de abril 2025: confusión en Habima Square por supuesto ataque terrorista erróneo

(AFP Fact Check, 2026e)

Alto

Etiquetar “reciclado”; adjuntar explicación de evento 2025 y por qué reemerge

2026-03-01

“Haifa bombardeada por misiles iraníes” (explosiones)

Facebook

Post en indonesio (ejemplo en AFP)

ND

Video es de julio 2025: ataque israelí a cuartel militar sirio en Damasco; geolocalizado por monumento

(AFP Fact Check, 2026f). Búsqueda inversa y geolocalización

Alto

Desmentido con fotogramas, mapa; recomendación: biblioteca de landmarks para geoloc rápida

2026-03-01

“Esto es Tel Aviv. Gracias Irán” (gran bola de fuego)

X / Facebook / Instagram

Post en X (ejemplo AFP)

ND

Material corresponde a explosión industrial en Tianjin (2015) reutilizada recurrentemente

(AFP Fact Check, 2026g). Trazabilidad

Alto

Desmentido “clásico recurrente”; crear hash-list de videos reutilizados

2026-03-01

“Ataque iraní causó retorno de ataúdes de soldados de EE. UU.”

Facebook

Post en hausa (ejemplo AFP)

>100 compartidos (según AFP)

Video es de 2011 (Dover Air Force Base) sobre caídos en Irak; AFP contacta al videógrafo; hay anuncio oficial

(AFP Fact Check, 2026h)

Alto

Desmentido con enlace a fuente oficial; pedir corrección si replicado por cuentas grandes

2026-03-03

“Imágenes de Irán bombardeando Tel Aviv” (video)

X

Post identificado por Maldita

ND

Indicios visuales de IA (bandera distorsionada, autos deformados, paneles repetidos); no hay imágenes reales equivalentes

(Maldita.es, 2026a).

Medio–Alto

Etiquetar “probable IA”; publicar comparativas visuales; monitorear variantes

2026-03-04

“Mira el pedazo de misil que prepara Irán…” (video)

X

Post en X identificado por Maldita

ND

No es misil: coincide con transporte/instalación de tanque petrolero; logos industriales visibles

(Maldita.es, 2026c).  (Referencia a desmentidos asociados)

Alto

Desmentido con fotogramas, logos; actualizar listas de “objetos industriales confundidos”

2026-03-03

“Interior del lugar donde estaba Jameneí con líderes durante bombardeos” (video)

X / Instagram

Video con watermark del perfil IG @kaabusia (según Maldita)

ND

Mezcla de clips: varios con indicios de IA; otro clip real pero antiguo; circula desde dic 2025

(Maldita.es, 2026b).

Alto

Etiquetar “composite manipulado”; recomendar no reutilizar sin fuente primaria

2026-03-04

“فیلم آخر زمانی موشک باران ایران…” (video “bombardeo” real)

Telegram

Canal vinculado a IRGC (según FactNameh)

ND

Elementos repetitivos/idénticos; ausencia de cobertura en medios creíbles; patrón de IA

(FactNameh, 2026a)

Medio–Alto

Desmentido en persa, español; alertas a comunidades persas; recopilar versiones

2026-03-05

“Videos muestran destrucción extensa en ciudades israelíes por misiles iraníes”

Instagram (principalmente)

ND

ND

FactNameh: muchos videos son IA; otros son antiguos (p. ej., terremoto Turquía 2023)

(FactNameh, 2026b)

Alto

Crear “playlist” interna de casos recurrentes (IA, material viejo) para respuesta rápida

2026-03-02

“La escuela destruida es Kabul 2021” (imagen)

Redes (no única)

ND

ND

Geolocalización: imagen es de Minab (Irán) tras bombardeos 28 feb 2026; comparación con foto local y herramientas OSINT

(Verificado, 2026a) (incluye técnica y fuente local)

Alto

Desmentido con geoloc; nota ética: sensibilidad (víctimas)

2026-03-02

“Irán reconoció oficialmente que bombardeó por error una escuela de niñas”

Telegram / redes

ND

ND

Verificado: pantalla de “comunicado” no es auténtica; no hay confirmación oficial de esa admisión

(Verificado, 2026b)

Medio–Alto

Etiquetar “sin evidencia”; solicitar a difusores que retiren; monitorear traducciones

2026-03-03

“Derribo de jet estadounidense en Irán” (video)

Redes (circulación amplia)

ND

ND

El clip es de videojuego/simulación; el original fue subido en 2025; y el incidente real citado ocurrió en Kuwait por fuego amigo, no en Irán

(Associated Press, 2026) (replicado) 30

Alto

Desmentido con fuente del video original; incorporar regla “simuladores militares”

Fuente: Elaboración propia

La Tabla 1 permite identificar patrones recurrentes de desinformación visual y narrativa, como el reciclaje de videos antiguos, el uso de contenido sintético generado con IA, la manipulación de contexto y la amplificación por cuentas con alta visibilidad.

Los hallazgos de nuestro propio ejercicio de investigación muestran por qué esta tarea resulta indispensable. Por ejemplo, se localizó un video viral en TikTok que afirmaba que Irán había atacado una base militar estadounidense en Yibuti, cuando en realidad correspondía a una explosión en Port Sudan ocurrida en mayo de 2025; en nuestra indagación encontramos que esta pieza acumuló más de 1,700 compartidos. También circuló un video sobre una supuesta “explosión masiva en la embajada de EE. UU. en Riad”, amplificado por cuentas de gran visibilidad, aunque la geolocalización mostró que se trataba de una autopista situada a unos 25 kilómetros de la embajada y que el material ya circulaba desde semanas antes. Casos así evidencian que la desinformación no solo confunde, sino que puede modificar la percepción pública del conflicto en tiempo real.

Un video falso sobre tropas en tierra puede instalar la idea de que la guerra escaló a una invasión directa; una imagen sintética del cadáver de un líder puede detonar miedo, indignación o deseos de represalia; y un clip mal ubicado sobre una embajada o una base militar puede intensificar tensiones diplomáticas y alimentar la sensación de ataque inminente. La desinformación, por tanto, no se limita a distorsionar hechos; también empuja emociones, decisiones y narrativas públicas en momentos especialmente sensibles. Por eso, cuando los medios institucionales verifican con método, transparencia y consistencia, no solo corrigen falsedades, también ofrecen certidumbre, contexto y contención social.

Conclusión

En el fondo, el reporte deja una conclusión incómoda pero necesaria: hoy una guerra también se libra en el terreno de la percepción. La inteligencia artificial, los archivos reciclados y la circulación transnacional de contenido engañoso han vuelto mucho más difícil distinguir entre testimonio y simulación. Por eso, más que reaccionar caso por caso, los medios institucionales deben construir capacidades permanentes de monitoreo, alfabetización mediática y verificación multilingüe. La confianza pública depende cada vez más de esa infraestructura crítica. Al final, la guerra de las pantallas no es una metáfora menor, es el nombre de un escenario en el que la disputa por la verdad ocurre al mismo tiempo que los hechos, en la pantalla del teléfono, en el video reenviado y en la imagen que parece prueba, aunque no lo sea (Wardle & Derakhshan, 2017).

Referencias

AFP Fact Check. (2026a, 5 de marzo). Video of US troops and vehicles on the ground in Iran is AI-generated.
https://factcheck.afp.com/doc.afp.com.99UZ9NQ

AFP Fact Check. (2026b, 5 de marzo). Port Sudan blast falsely shared as Iranian attack on US military base in Djibouti. https://factcheck.afp.com/doc.afp.com.99WH89E

AFP Fact Check. (2026c, 5 de marzo). Old videos from Iran's attack on Israel falsely linked to 2026 Mideast war. https://factcheck.afp.com/doc.afp.com.99UK2T7

AFP Fact Check. (2026d, 4 de marzo). Riyadh highway fire footage misrepresented as strike on US embassy. https://factcheck.afp.com/doc.afp.com.99XG29E

AFP Fact Check. (2026e, 4 de marzo). Old Tel Aviv clip falsely linked to Middle East war.
https://factcheck.afp.com/doc.afp.com.99PB6WH

AFP Fact Check. (2026f, 4 de marzo). Old video of Israeli attack on Syria falsely linked to Iran conflict. https://factcheck.afp.com/doc.afp.com.99P38CQ

AFP Fact Check. (2026g, 3 de marzo). Recycled China explosion video misrepresented as Iranian strike on Israel. https://factcheck.afp.com/doc.afp.com.99MY3G4

AFP Fact Check. (2026h, 4 de marzo). Video of US soldiers' remains is from 2011 and unrelated to Mideast war in 2026. https://factcheck.afp.com/doc.afp.com.99UP4ZQ

Associated Press. (2026, 2 de marzo). FACT FOCUS: Misrepresented images as Iran war progresses. https://apnews.com/article/fact-check-iran-war-khamenei-misrepresented-images-787b6a21a4fef4cc32ccca9bc59980f0

FactNameh. (2026a, 4 de marzo). El video que afirma mostrar el bombardeo de Israel fue creado con inteligencia artificial. https://factnameh.com/fa/fact-checks/2026-03-04-iran-fake-ai-bombing-israel

FactNameh. (2026b, 5 de marzo). Videos falsos atribuidos a la destrucción de Israel por misiles iraníes. https://factnameh.com/fa/fact-checks/2026-03-05-iran-missile-attack-israel-debunked

Maldita.es. (2026a, 4 de marzo). Cuidado con este vídeo de “Irán bombardeando Tel Aviv”: tiene indicios de haber sido generado con IA. https://maldita.es/malditobulo/20260304/imagenes-de-iran-bombardeando-tel-aviv/

Maldita.es. (2026b, 3 de marzo). No, este vídeo no muestra el lugar donde estaba Alí Jameneí con otros líderes durante los bombardeos: mezcla vídeos antiguos y con indicios de haber sido creados con IA. https://maldita.es/malditobulo/20260303/video-que-muestra-el-interior-de-las-instalaciones-donde-estaba-el-ayatola-y-otros-lideres-iranies-durante-los-bombardeos-de-israel/

Maldita.es. (2026c, 5 de marzo). Cuidado con este vídeo que se difunde como si fuera un misil iraní: lo que se ve es un tanque de almacenamiento de petróleo. https://maldita.es/malditobulo/20260305/video-muestra-muestran-parte-del-arsenal-militar-de-iran-incluyendo-misiles-de-gran-alcance/

Reuters Fact Check. (2026, 2 de marzo). Fact Check: Image of Khamenei’s body trapped beneath rubble is made with AI. https://www.reuters.com/fact-check/image-khameneis-body-trapped-beneath-rubble-is-made-with-ai-2026-03-02/

Silverman, C. (Ed.). (2014). Verification handbook: An ultimate guideline on digital age sourcing for emergency coverage.

Verificado. (2026a, 2 de marzo). Desinformación y bulos sobre los ataques a Irán y su respuesta (febrero-marzo 2026). https://verificado.com.mx/desinformacion-ataques-iran-eua-israel-2026/

Verificado. (2026b, 2 de marzo). Estas imágenes sí son del ataque a una escuela en Irán que dejó decenas de niñas muertas. https://verificado.com.mx/iran-imagenes-ataque-escuela-ninas-muertas/

Wardle, C., & Derakhshan, H. (2017). Information disorder: Toward an interdisciplinary framework for research and policy making. https://edoc.coe.int/en/media/7495-information-disorder-toward-an-interdisciplinary-framework-for-research-and-policy-making.html

Logo Footer Tecnológico de Monterrey
  • Inicio
  • Noticias
  • Recursos
  • Nosotros
  • Contacto

© 2024 Observatorio de Medios Digitales