Una narrativa viral no nace ni crece sola. Nuestro informe muestra que Telegram opera también como una capa de siembra, reempaquetado y circulación temprana. En este entorno aparecen canales que empujan materiales hacia redes más abiertas, muchas veces antes de que lleguen al gran público. Este patrón se vuelve todavía más preocupante cuando se conecta con operaciones más amplias de propaganda y suplantación, como las descritas alrededor del ecosistema Pravda-Matryoshka, donde la lógica consiste en sembrar primero, escalar después, y hacerlo además en varios idiomas para aumentar la apariencia de legitimidad (Maldita.es, 2026a). El ecosistema Pravda-Matryoshka es un entramado de desinformación prorrusa que combina una red de sitios web y canales de amplificación (“Pravda” o Portal Kombat) con operaciones en redes sociales para sembrar y reciclar narrativas engañosas a gran escala (Viginum, 2024).
A lo anterior se le debe sumar el papel de Meta –especialmente Facebook e Instagram– como infraestructura de redistribución masiva. Nuestro informe recupera casos en los que materiales publicados inicialmente por cuentas tipo “digital creator” en Facebook saltan después a otras redes, multiplicando su alcance y dificultando su rastreo. Las cuentas tipo “digital creator” son perfiles en plataformas sociales identificados como espacios de creación de contenido para construir audiencia, visibilidad y, en muchos casos, monetización. Cada repost, cada edición, cada nuevo texto y cada reencuadre vuelve más opaca la trazabilidad del contenido. Incluso el propio Oversight Board de Meta ha advertido que los mecanismos actuales de etiquetado y moderación resultan insuficientes ante la velocidad con la que circulan contenidos engañosos en escenarios de crisis (AFP Fact Check, 2026a; The Verge, 2026).
Las plataformas TikTok y YouTube complementan el recorrido de transformación, circulación y amplificación de las narrativas engañosas
En esta cadena de plataformas sociales, TikTok y YouTube parecen cumplir funciones complementarias. TikTok aparece como espacio de redistribución, edición y “remix”. El “remix” sucede cuando se reelabora o reutiliza creativamente un contenido previo. Por ejemplo, cuando se toma un video, audio o imagen ya existente y se modifica con cortes, música, texto, efectos, doblaje o nuevas combinaciones. YouTube, en cambio, funciona muchas veces como archivo base o fuente. De YouTube pueden recuperarse materiales oficiales, simulaciones, videos viejos o clips de otros conflictos que luego son recortados y reinsertados en una nueva narrativa. El resultado es una verdadera cadena de ensamblaje de desinformación.
Este es un ejemplo del recorrido de una narrativa falsa: Un video “antiguo” se identifica en YouTube, alguien lo edita y lo subtitula, otro lo sube a TikTok, más tarde circula por Telegram y finalmente despega en X o Facebook con una descripción nueva y un tono de urgencia (AFP Fact Check, 2026b, 2026c; Maldita.es, 2026b; Reuters Fact Check, 2026c, 2026d).
Este tránsito interplataforma es decisivo porque muestra que la falsedad no depende de una sola fuente, ni de una sola red. Depende de un entramado de circulación. Lo que parece una “evidencia auténtica” suele ser el resultado de varias capas de edición, traducción, recontextualización y amplificación. No surge de forma espontánea, sino derivado de un proceso de manipulación y recirculación (EEAS, 2023).
Tabla 2. Comparativa de las principales afirmaciones virales
|
Afirmación falsa o engañosa (resumen)
|
Pico de viralidad (estimación)
|
Formato
|
Plataformas principales
|
Idiomas y geografías observadas
|
Evidencia de alta difusión
|
Verificación o refutación (Fuentes)
|
|
“Misiles iraníes impactando Tel Aviv” (video generado con IA)
|
3–4 mar 2026
|
Video (IA)
|
X y Facebook
|
Inglés; circulación global
|
Posts con aproximadamente 5M y 3.9M vistas en X (para dos publicaciones)
|
Forense digital: probable IA (Reuters Fact Check, 2026g)
|
|
“Ataque iraní a Tel Aviv” (en realidad fuegos artificiales y celebraciones en Argel)
|
3–6 mar 2026
|
Video (reetiquetado)
|
X
|
Inglés; audiencia global
|
Un post citado con 4.3M vistas
|
Geolocalización del lugar (Reuters Fact Check, 2026c)
|
|
“Explosiones masivas en Tel Aviv” (en realidad explosión de 2015 en Tianjin)
|
2–4 mar 2026
|
Video (archivo)
|
Instagram
|
No especificado; alta recirculación
|
Señal de reutilización sistemática del mismo clip en múltiples conflictos
|
Origen 2015 (Reuters Fact Check, 2026a)
|
|
“Dimona (sitio nuclear) destruido por misiles iraníes” (en realidad explosión de depósito en Ucrania, 2017)
|
1–5 mar 2026
|
Video (archivo)
|
X y YouTube
|
Inglés; audiencia global
|
Post visto 1.6M
|
Sin reportes creíbles; origen 2017 (Reuters Fact Check, 2026b)
|
|
“USS Abraham Lincoln alcanzado–hundido” (mezcla de video IA y clip real 2020; además, material IA reciclado)
|
1–12 mar 2026
|
Video (IA más material de archivo)
|
Facebook, Douyin, Telegram, X, Instagram
|
Chino tradicional, múltiples idiomas
|
Difusión multi-plataforma y multi-idioma; casos conectados a cuentas “digital creator”
|
Rastreo de origen y material (AFP Hong Kong, 2026)
|
|
“Tropas de élite de EE. UU. capturadas en Irán” (imágenes IA)
|
9–11 mar 2026
|
Imagen (IA)
|
X, Facebook
|
Inglés; alto alcance global
|
Reuters Fact Check: análisis con SynthID Google; millones de vistas antes de ser borrado (Wired, 2026)
|
(Reuters Fact Check, 2026h)
|
|
“Cuerpo del líder supremo en los escombros” (imagen–video IA)
|
3–9 mar 2026
|
Imagen y video (IA)
|
Instagram
|
Inglés (caption); alta circulación
|
Ampliamente compartido en Instagram; detector con alta confianza
|
SynthID Google (Reuters Fact Check, 2026e)
|
|
“Hotel en Riad (Hyatt Regency) en llamas tras misiles iraníes” (imagen IA)
|
2–9 mar 2026
|
Imagen (IA)
|
X y Facebook
|
Inglés; audiencia global
|
Publicación fechada 2 mar; réplica en Facebook
|
SynthID; sin reportes creíbles del ataque al hotel (Reuters Fact Check, 2026d)
|
|
“Video de pánico: gente sin refugio por misiles” (en realidad evento de 2025)
|
1–9 mar 2026
|
Video (archivo)
|
X y otras redes
|
No especificado
|
Afirmación surge 1 mar; verificación atribuye a evento 2025
|
(Reuters Fact Check, 2026f)
|
|
“EE. UU. abandona base en Dubái” (en realidad show aéreo del Día de la Solidaridad, enero)
|
2–13 mar 2026
|
Video (descontextualizado)
|
Facebook, Threads, Instagram, y TikTok
|
Malayo; circulación en India, Filipinas, Kenia, Bangladesh
|
Repost multi-país y multi-plataforma
|
(AFP Malaysia, 2026)
|
|
“Operaciones en Irán” (cuenta oficial mezcla imágenes reales con videojuego)
|
4 mar 2026
|
Video (mezcla real con videojuego)
|
X
|
Español–inglés (ecosistema internacional)
|
Aproximadamente 50M reproducciones reportadas
|
(Maldita.es, 2026c)
|
|
“70 soldados franceses muertos en EAU (según ISW)” (fabricación atribuida y amplificada por red rusa)
|
2–4 mar 2026
|
Video y nota (suplantación)
|
Telegram, sitios web y X
|
Francés con réplicas multilingües
|
Atribución a canal Telegram con amplificación vía web
|
(Maldita.es, 2026c)
|
Fuente: Elaboración propia con base en una diversidad de fuentes destacadas en la última columna.
La Tabla 2 muestra que las narrativas falsas más virales sobre el conflicto combinaron distintos formatos (videos con IA, imágenes sintéticas, archivos antiguos y materiales descontextualizados) y circularon de forma intensa en plataformas como X, Facebook, Instagram, YouTube, Telegram y TikTok. También deja ver que la difusión de esta información fue transnacional y multilingüe, con picos de millones de vistas y recargas en distintos países, mientras las verificaciones posteriores demostraron patrones recurrentes (uso de IA generativa, reciclaje de videos de otros años, reetiquetado geográfico y mezcla de contenido real con material manipulado). Finalmente, la tabla evidencia que la desinformación actual no depende de una sola pieza falsa, sino de un ecosistema de recirculación rápida y amplificación multiplataforma.
Redes de amplificación y opacidad informativa
Lo relevante de un proceso de desinformación no es tanto el descubrimiento de las piezas falsas, sino de las redes de amplificación de estas narrativas engañosas. En este proceso conviven medios alineados con Estados, agencias oficiales, operaciones de influencia transnacional; pero también creadores oportunistas que producen material por vistas y cuentas de alto perfil que comparten sin verificar. Esta mezcla vuelve especialmente difícil distinguir entre propaganda estratégica, oportunismo económico y simple negligencia informativa. A veces una pieza circula por razones geopolíticas; otras, por razones de engagement. Pero ambas lógicas pueden reforzarse mutuamente y producir el mismo efecto: más ruido, más confusión y menor capacidad pública para distinguir hechos de fabricaciones (Euronews, 2026; Maldita.es, 2026a, 2026b, 2026c; Wired, 2026).
Una historia viral no suele existir en una sola versión. Se fragmenta, se adapta, cambia de idioma, muta de formato y reaparece con nuevos detalles, sin perder su núcleo emocional. Por ejemplo, la historia del portaaviones estadounidense supuestamente destruido ilustra bien esta lógica. No se trató de una sola falsedad, sino de varias piezas conectadas: videos creados con IA, clips antiguos reutilizados, publicaciones en distintos idiomas y reapropiaciones por diferentes actores. Lo mismo ocurre con supuestas capturas de tropas, ataques a infraestructura estratégica o escenas de pánico urbano. Una vez que una narrativa conecta con el clima emocional del momento, puede reproducirse en versiones múltiples y seguir circulando incluso después de que una de ellas ya fue desmentida (AFP Fact Check, 2026a, 2026b, 2026c; Maldita.es, 2026a; Reuters Fact Check, 2026a).
Sobre la complejidad del proceso de verificación en estos nuevos tiempos
La facilidad de mutación que tiene una narrativa falsa explica por qué el desmentido tradicional muchas veces llega tarde. La pieza original ya no importa tanto. Lo que importa es la continuidad de la narrativa a través de variantes. Frente a este panorama, verificar ya no puede reducirse a confirmar si una imagen fue hecha con IA o si un video pertenece a otro año. Verificar implica reconstruir trayectorias: identificar la primera aparición identificable de un contenido en el espacio público (como el primer post, video, tuit o publicación que puede localizarse); observar en qué idioma surgió el primer contenido; rastrear cómo fue reempaquetada; detectar qué cuentas la impulsaron; y finalmente entender en qué plataformas adquirió más fuerza. Este es uno de los aprendizajes más valiosos de nuestro ejercicio de investigación. La verificación eficaz debe contemplar también el análisis de redes, el monitoreo multilingüe y el seguimiento interplataforma (Maldita.es, 2026a, 2026b, 2026c; Wardle & Derakhshan, 2017).
Recomendaciones finales ante la desinformación en contextos de guerra
Algunas recomendaciones que podemos hacer, derivadas de nuestros ejercicios de investigación con respecto al fenómeno de la desinformación son las siguientes:
A los investigadores interesados en este tema les sugerimos trabajar por cadenas y no por publicaciones aisladas. Lo anterior supone seguir todo el recorrido del contenido: de dónde salió, cómo cambió y quiénes lo fueron difundiendo. Para eso hay que comparar varias fuentes, ubicar dónde y cuándo ocurrió algo, guardar pruebas básicas pero sólidas, y organizar esa información para que también sirva en crisis futuras.
A las plataformas aconsejamos introducir más controles antes del repost en eventos de alta incertidumbre; facilitar el rastreo de un contenido que ha sido subido otra vez por otras cuentas o en otras plataformas, para identificar mejor su origen y recorrido; y mostrar mejores herramientas que ayudan a verificar autenticidad, como C2PA y SynthID, pero sin presentarlas como una solución perfecta o definitiva, por sus limitaciones (Google, 2025; TechCrunch, 2025; The Verge, 2026).
Finalmente, podemos decir que en las guerras contemporáneas no solo cuenta quién ataca o quién resiste. También cuenta quién logra instalar primero una versión creíble de los hechos. La desinformación va más allá de la producción de contenido falso. Opera como un entramado en el que circulan narrativas engañosas, donde plataformas, incentivos, actores políticos, algoritmos y economías de atención colaboran –a veces de forma deliberada y a veces por simple diseño– en la fabricación de contenidos creíbles.
Las guerras siempre se han librado también en el terreno de la percepción. Sin embargo, este terreno hoy es más complejo, está organizado por infraestructuras digitales que premian la velocidad, la emoción y la repetición. En este contexto, verificar no solo consiste en corregir un error, sino en intentar defender las condiciones mínimas para que una sociedad pueda seguir distinguiendo entre un hecho, una manipulación y una ficción viral. La batalla por la verdad ya no se lleva a cabo solo en redacciones, oficinas diplomáticas o salas de inteligencia. También se libra en los feeds de las plataformas sociales, y ahí cada minuto cuenta.
Referencias
AFP Fact Check. (2026a, 6 de marzo). AI-generated video falsely claims to show Iranian missiles hitting Israeli city. https://factcheck.afp.com/doc.afp.com.A28J663
AFP Fact Check. (2026b, 4 de marzo). Old Tel Aviv clip falsely linked to Middle East war. https://factcheck.afp.com/doc.afp.com.99PB6WH
AFP Fact Check. (2026c, 5 de marzo). Old videos from Iran’s attack on Israel falsely linked to 2026 Mideast war. https://factcheck.afp.com/doc.afp.com.99UK2T7
AFP Hong Kong. (2026, 12 de marzo). AI-generated clip and old video shared in false posts about Iran striking USS Abraham Lincoln. AFP Fact Check. https://factcheck.afp.com/doc.afp.com.A2LM9CQ
AFP Malaysia. (2026, 13 de marzo). Video shows Dubai air show, not US army ‘abandoning’ Dubai base. AFP Fact Check. https://factcheck.afp.com/doc.afp.com.A2RK8NQ
AFP Thailand. (2026, 11 de marzo). Footage of air strikes in United Arab Emirates near Burj Khalifa is AI-generated. AFP Fact Check. https://factcheck.afp.com/doc.afp.com.A2LT363
EEAS. (2023, 6 de febrero). Beyond disinformation - What is FIMI? https://www.eeas.europa.eu/eeas/beyond-disinformation-what-fimi_en
Euronews. (2026, 6 de marzo). Los medios estatales iraníes intensifican su campaña de desinformación en plena guerra con EE.UU. https://es.euronews.com/next/2026/03/06/los-medios-estatales-iranies-intensifican-su-campana-de-desinformacion-en-plena-guerra-con
Google. (2025, 20 de mayo). SynthID Detector – a new portal to help identify AI-generated content. https://blog.google/innovation-and-ai/products/google-synthid-ai-content-detector/
Maldita.es. (2026a, 3 de marzo). No, este vídeo no es real ni muestra al portaviones Abraham Lincoln en llamas: la secuencia circula desde junio de 2025 y su creador la generó con IA. https://maldita.es/malditobulo/20260303/impactan-misiles-contra-el-portaviones-estadounidense-abraham-lincoln/
Maldita.es. (2026b, 4 de marzo). Cuidado con este vídeo de “Irán bombardeando Tel Aviv”: tiene indicios de haber sido generado con IA. https://maldita.es/malditobulo/20260304/imagenes-de-iran-bombardeando-tel-aviv/
Maldita.es. (2026c, 11 de marzo). De canales estatales iraníes a la red de propaganda rusa Pravda: cómo Irán, Rusia o EEUU difunden desinformación sobre el conflicto en Oriente Próximo. https://maldita.es/malditobulo/20260311/guerra-iran-fimi/
Reuters Fact Check. (2026a, 4 de marzo). Fact Check: Video shows 2015 explosions in China, not Iran attack on Israel. https://www.reuters.com/fact-check/video-shows-2015-explosions-china-not-iran-attack-israel-2026-03-04/
Reuters Fact Check. (2026b, 5 de marzo). Fact Check: Ukraine depot blast video falsely implied to show Iran striking Israeli nuclear site. Reuters. https://www.reuters.com/fact-check/ukraine-depot-blast-video-falsely-implied-show-iran-striking-israeli-nuclear-2026-03-05/
Reuters Fact Check. (2026c, 6 de marzo). Fact Check: Video shows Algerian fireworks, not Iranian airstrikes on Israel. Reuters. https://www.reuters.com/fact-check/video-shows-algerian-fireworks-not-iranian-airstrikes-israel-2026-03-06/
Reuters Fact Check. (2026d, 9 de marzo). Fact Check: Image of Saudi hotel ablaze after Iranian missile strike was made with AI. https://www.reuters.com/fact-check/image-saudi-hotel-ablaze-after-iranian-missile-strike-was-made-with-ai-2026-03-09/
Reuters Fact Check. (2026e, 9 de marzo). Fact Check: Video and image of Iran’s Ali Khamenei in rubble made with AI. https://www.reuters.com/fact-check/video-image-irans-ali-khamenei-rubble-made-with-ai-2026-03-09/
Reuters Fact Check. (2026f, 9 de marzo). Fact Check: Old Tel Aviv crowd clip miscaptioned as panic for shelter amid Iran strikes. Reuters. https://www.reuters.com/fact-check/old-tel-aviv-crowd-clip-miscaptioned-panic-shelter-amid-iran-strikes-2026-03-09/
Reuters Fact Check. (2026g, 10 de marzo). Fact Check: Video of ‘Iran missile barrage’ on Tel Aviv is AI-generated, say experts. Reuters. https://www.reuters.com/fact-check/video-iran-missile-barrage-tel-aviv-is-ai-generated-say-experts-2026-03-10/
Reuters Fact Check. (2026h, 11 de marzo). Fact Check: Images depicting capture of US ‘Delta Force’ troops in Iran are AI-generated. Reuters. https://www.reuters.com/fact-check/images-depicting-capture-us-delta-force-troops-iran-are-ai-generated-2026-03-11/
TechCrunch. (2025, 20 de mayo). Google’s new SynthID Detector can help spot AI slop. https://techcrunch.com/2025/05/20/googles-new-synthid-detector-can-help-spot-ai-slop/
The Verge. (2026, 10 de marzo). Meta’s deepfake moderation isn’t good enough, says Oversight Board. https://www.theverge.com/tech/891933/meta-oversight-board-ai-labels-deepfake-c2pa-facebook-instagram
Viginum. (2024, junio). MATRYOSHKA: A pro-Russian campaign targeting media and the fact-checking community. Technical report. https://www.sgdsn.gouv.fr/files/files/20240611_NP_SGDSN_VIGINUM_Matriochka_EN_VF.pdf
Wardle, C., & Derakhshan, H. (2017). Information disorder: Toward an interdisciplinary framework for research and policy making. Council of Europe. https://edoc.coe.int/en/media/7495-information-disorder-toward-an-interdisciplinary-framework-for-research-and-policy-making.html
Wired. (2026, 10 de marzo). Fake AI Content About the Iran War Is All Over X. https://www.wired.com/story/fake-ai-content-about-the-iran-war-is-all-over-x