En la primera parte de este análisis (leer primer reporte, publicado el pasado martes 10 de marzo) vimos que, en el conflicto relacionado con Irán, la desinformación visual se apoyó en tres mecanismos dominantes: videos antiguos reciclados como si fueran actuales, imágenes generadas con inteligencia artificial (IA) difundidas como evidencia y materiales reales descontextualizados para hacerlos encajar en una narrativa falsa. En esta actualización del informe avanzamos un paso más. El problema no consiste únicamente en que circulen piezas engañosas. El problema mayor es que esas piezas ya forman parte de una infraestructura de amplificación mucho más compleja, donde distintas plataformas cumplen funciones específicas y donde la mentira no solo se publica, sino que se traduce, se reempaqueta, se acelera y se redistribuye (Wired, 2026).
En este tipo de conflictos importa también lo que la gente cree que ocurrió. Hoy, una explosión puede ser real, falsa o antigua; una fotografía puede documentar un hecho o fabricarlo; un video puede informar, manipular o sembrar pánico. En el conflicto en Medio Oriente, la disputa no se ha librado únicamente con misiles, operaciones militares o declaraciones oficiales. También se ha librado en X, Telegram, Facebook, TikTok y YouTube, donde imágenes dudosas, videos sintéticos y narrativas recicladas han circulado con una velocidad que muchas veces rebasa a la verificación (Reuters Fact Check, 2026a, 2026b, 2026c, 2026d, 2026e, 2026f, 2026g, 2026h).
Un ecosistema de amplificación de información falsa con gran impacto emocional
Como ya se ha referido, entre el 28 de febrero y el 13 de marzo de 2026, el ecosistema informativo digital alrededor del conflicto entre Estados Unidos, Israel e Irán mostró una combinación particularmente intensa de tres dinámicas: producción acelerada de contenido sintético, reutilización de materiales viejos y amplificación oportunista o coordinada en plataformas de alta viralidad. Cabe señalar que en este caso no se trata de simples publicaciones equivocadas o rumores pasajeros. Estamos ante un entorno donde distintos actores explotan deliberadamente la velocidad, la confusión y la apariencia de autenticidad para influir en la percepción pública.
Lo importante ahora es comprender que la desinformación actual no suele presentarse como mentira evidente. Se presenta como evidencia. Como un clip “recién filtrado”. Como una imagen “captada hace minutos”. Como un video “que los medios no quieren mostrar”. Como una noticia “de último momento”. Esa estética de urgencia y revelación le da, a muchos contenidos falsos, una ventaja inicial enorme frente a un proceso de verificación.
Uno de los hallazgos más relevantes de nuestro reporte acerca del problema de desinformación en torno al conflicto en Medio Oriente es que muchas de las narrativas virales más exitosas comparten la misma fórmula: ofrecer pruebas visuales que, en realidad, no prueban nada. Aparecen videos que supuestamente muestran misiles impactando ciudades israelíes, imágenes del líder supremo iraní bajo escombros, escenas de hoteles ardiendo, destrucción de activos estratégicos o supuestas capturas de tropas. En varios de estos casos, las verificaciones posteriores han demostrado que se trata de materiales sintéticos generados con IA, archivos antiguos o escenas grabadas en otros países y en otros años. Sin embargo, cuando sale el dictamen de las entidades verificadoras, la información ya ha circulado masivamente y ya ha cumplido su función simbólica: instalar una impresión de realidad (AFP Fact Check, 2026a, 2026b, 2026c).
Esta es una de las claves del problema. En contextos de guerra, las imágenes impactantes no solo informan: también detonan emociones, refuerzan prejuicios y producen certezas rápidas. Si un contenido coincide con lo que una audiencia teme, espera o desea confirmar, su poder persuasivo aumenta. Por eso una imagen falsa puede ser eficaz incluso después de ser desmentida. Su impacto inicial ya moldeó la conversación y dejó una huella emocional difícil de revertir (Wardle & Derakhshan, 2017).
Tabla 1. Comparativa de redes y actores amplificadores
|
Red (actor)
|
Tipo
|
Plataformas clave
|
Mecanismo de amplificación
|
Alcance (huella)
|
Ejemplos documentados (Fuentes)
|
|
Medios alineados, vinculados al Estado iraní (Tehran Times)
|
Propaganda estatal
|
X, ecosistema web; reempaquetado multilingüe
|
Publicación “autoridad aparente”, uso de imágenes satelitales, IA, traducción
|
NewsGuard (vía Euronews) identifica 18 afirmaciones falsas; ejemplo de radar en base aérea con imagen de Google Earth manipulada
|
(Euronews, 2026)
|
|
IRNA y canales asociados
|
Agencia estatal (difusión oficial)
|
X y Telegram
|
Declaraciones de “victoria”, push a mensajería, reuso por terceros
|
Caso “Abraham Lincoln” (publicación y réplica)
|
(Maldita.es, 2026a)
|
|
Red Pravda y Matryoshka (pro-rusa)
|
Operación de influencia (suplantación)
|
Telegram, X y dominios web multilingües
|
Siembra en Telegram, suplantación de medios e instituciones
|
Viginum: operación activa desde 2023; siembra en Telegram; coordinación seeders-quoters; targets en >60 países
|
(Maldita.es, 2026a; Viginum, 2024)
|
|
“Digital creators” oportunistas (IA-edición)
|
Incentivo económico (clickbait)
|
Facebook, Instagram, TikTok y YouTube
|
Producción de videos IA, etiquetado ambiguo o removido, recargas
|
AFP identifica cuentas “digital creator” como origen de algunos fakes
|
(AFP Thailand, 2026)
|
|
Cuentas de alto perfil y “blue checks” (verificadas o pagadas)
|
Amplificadores de oportunidad
|
X
|
Repost masivo, engagement, monetización
|
Wired reporta millones de vistas para fakes IA antes de ser borrado
|
(Wired, 2026)
|
|
Actores institucionales occidentales (contenido ambiguo)
|
Comunicación oficial con “zona gris” (no es completamente falsa, pero tampoco transparente)
|
X
|
Mezcla de material real con videojuegos, estética “score”
|
Alcance masivo (decenas de millones)
|
(Maldita.es, 2026a)
|
Fuente: Elaboración propia con base en una diversidad de fuentes destacadas en la última columna.
La Tabla 1 muestra que la desinformación en torno al conflicto no depende de un solo actor, sino de una red heterogénea donde intervienen medios estatales iraníes, agencias oficiales, operaciones de influencia prorrusas, creadores oportunistas y cuentas de alto perfil. Cada uno cumple funciones distintas de amplificación en plataformas como X, Telegram, Facebook, Instagram, TikTok y YouTube, mediante estrategias como traducción, reempaquetado, suplantación, recargas y monetización del engagement. En conjunto, los casos documentados evidencian un ecosistema transnacional y multicapas en el que la propaganda, el oportunismo económico y la ambigüedad informativa se combinan para dar gran alcance a contenidos engañosos.
La plataforma X: ¿un acelerador público de narrativas falsas?
En nuestro reporte, identificamos a X como el principal acelerador público de estas narrativas. Ahí los contenidos engañosos encontraron un ambiente ideal para escalar. Estas son algunas condiciones que ofrece la plataforma: velocidad de circulación, alta visibilidad, cuentas monetizadas o verificadas, lógica de tendencia y una economía de la atención que premia lo espectacular. La popular revista Wired documentó cómo varios contenidos sintéticos relacionados con la guerra acumularon millones de vistas antes de ser eliminados, mientras Reuters rastreó piezas virales con cifras multimillonarias en poco tiempo (Reuters Fact Check, 2026a, 2026b, 2026c, 2026d, 2026e, 2026f, 2026g, 2026h; Wired, 2026).
El punto no es solo que X permita la circulación de desinformación. El punto es que su arquitectura la vuelve competitiva. En un entorno donde lo urgente, lo emocional y lo sorprendente tienen más probabilidades de ser impulsados, la pieza falsa puede ganar ventaja incluso antes de que alguien pregunte si es auténtica. En este caso, viralidad y verificación transitan por carriles separados.
Referencias
AFP Fact Check. (2026a, 6 de marzo). AI-generated video falsely claims to show Iranian missiles hitting Israeli city. https://factcheck.afp.com/doc.afp.com.A28J663
AFP Fact Check. (2026b, 4 de marzo). Old Tel Aviv clip falsely linked to Middle East war. https://factcheck.afp.com/doc.afp.com.99PB6WH
AFP Fact Check. (2026c, 5 de marzo). Old videos from Iran’s attack on Israel falsely linked to 2026 Mideast war. https://factcheck.afp.com/doc.afp.com.99UK2T7
AFP Hong Kong. (2026, 12 de marzo). AI-generated clip and old video shared in false posts about Iran striking USS Abraham Lincoln. AFP Fact Check. https://factcheck.afp.com/doc.afp.com.A2LM9CQ
AFP Malaysia. (2026, 13 de marzo). Video shows Dubai air show, not US army ‘abandoning’ Dubai base. AFP Fact Check. https://factcheck.afp.com/doc.afp.com.A2RK8NQ
AFP Thailand. (2026, 11 de marzo). Footage of air strikes in United Arab Emirates near Burj Khalifa is AI-generated. AFP Fact Check. https://factcheck.afp.com/doc.afp.com.A2LT363
EEAS. (2023, 6 de febrero). Beyond disinformation - What is FIMI? https://www.eeas.europa.eu/eeas/beyond-disinformation-what-fimi_en
Euronews. (2026, 6 de marzo). Los medios estatales iraníes intensifican su campaña de desinformación en plena guerra con EE.UU. https://es.euronews.com/next/2026/03/06/los-medios-estatales-iranies-intensifican-su-campana-de-desinformacion-en-plena-guerra-con
Google. (2025, 20 de mayo). SynthID Detector – a new portal to help identify AI-generated content. https://blog.google/innovation-and-ai/products/google-synthid-ai-content-detector/
Maldita.es. (2026a, 3 de marzo). No, este vídeo no es real ni muestra al portaviones Abraham Lincoln en llamas: la secuencia circula desde junio de 2025 y su creador la generó con IA. https://maldita.es/malditobulo/20260303/impactan-misiles-contra-el-portaviones-estadounidense-abraham-lincoln/
Maldita.es. (2026b, 4 de marzo). Cuidado con este vídeo de “Irán bombardeando Tel Aviv”: tiene indicios de haber sido generado con IA. https://maldita.es/malditobulo/20260304/imagenes-de-iran-bombardeando-tel-aviv/
Maldita.es. (2026c, 11 de marzo). De canales estatales iraníes a la red de propaganda rusa Pravda: cómo Irán, Rusia o EEUU difunden desinformación sobre el conflicto en Oriente Próximo. https://maldita.es/malditobulo/20260311/guerra-iran-fimi/
Reuters Fact Check. (2026a, 4 de marzo). Fact Check: Video shows 2015 explosions in China, not Iran attack on Israel. https://www.reuters.com/fact-check/video-shows-2015-explosions-china-not-iran-attack-israel-2026-03-04/
Reuters Fact Check. (2026b, 5 de marzo). Fact Check: Ukraine depot blast video falsely implied to show Iran striking Israeli nuclear site. Reuters. https://www.reuters.com/fact-check/ukraine-depot-blast-video-falsely-implied-show-iran-striking-israeli-nuclear-2026-03-05/
Reuters Fact Check. (2026c, 6 de marzo). Fact Check: Video shows Algerian fireworks, not Iranian airstrikes on Israel. Reuters. https://www.reuters.com/fact-check/video-shows-algerian-fireworks-not-iranian-airstrikes-israel-2026-03-06/
Reuters Fact Check. (2026d, 9 de marzo). Fact Check: Image of Saudi hotel ablaze after Iranian missile strike was made with AI. https://www.reuters.com/fact-check/image-saudi-hotel-ablaze-after-iranian-missile-strike-was-made-with-ai-2026-03-09/
Reuters Fact Check. (2026e, 9 de marzo). Fact Check: Video and image of Iran’s Ali Khamenei in rubble made with AI. https://www.reuters.com/fact-check/video-image-irans-ali-khamenei-rubble-made-with-ai-2026-03-09/
Reuters Fact Check. (2026f, 9 de marzo). Fact Check: Old Tel Aviv crowd clip miscaptioned as panic for shelter amid Iran strikes. Reuters. https://www.reuters.com/fact-check/old-tel-aviv-crowd-clip-miscaptioned-panic-shelter-amid-iran-strikes-2026-03-09/
Reuters Fact Check. (2026g, 10 de marzo). Fact Check: Video of ‘Iran missile barrage’ on Tel Aviv is AI-generated, say experts. Reuters. https://www.reuters.com/fact-check/video-iran-missile-barrage-tel-aviv-is-ai-generated-say-experts-2026-03-10/
Reuters Fact Check. (2026h, 11 de marzo). Fact Check: Images depicting capture of US ‘Delta Force’ troops in Iran are AI-generated. Reuters. https://www.reuters.com/fact-check/images-depicting-capture-us-delta-force-troops-iran-are-ai-generated-2026-03-11/
TechCrunch. (2025, 20 de mayo). Google’s new SynthID Detector can help spot AI slop. https://techcrunch.com/2025/05/20/googles-new-synthid-detector-can-help-spot-ai-slop/
The Verge. (2026, 10 de marzo). Meta’s deepfake moderation isn’t good enough, says Oversight Board. https://www.theverge.com/tech/891933/meta-oversight-board-ai-labels-deepfake-c2pa-facebook-instagram
Viginum. (2024, junio). MATRYOSHKA: A pro-Russian campaign targeting media and the fact-checking community. Technical report. https://www.sgdsn.gouv.fr/files/files/20240611_NP_SGDSN_VIGINUM_Matriochka_EN_VF.pdf
Wardle, C., & Derakhshan, H. (2017). Information disorder: Toward an interdisciplinary framework for research and policy making. Council of Europe. https://edoc.coe.int/en/media/7495-information-disorder-toward-an-interdisciplinary-framework-for-research-and-policy-making.html
Wired. (2026, 10 de marzo). Fake AI Content About the Iran War Is All Over X. https://www.wired.com/story/fake-ai-content-about-the-iran-war-is-all-over-x