La inteligencia artificial (IA) se ha convertido en uno de los grandes dilemas de nuestro ecosistema informativo. Por un lado, ha multiplicado la capacidad de crear y difundir desinformación: textos generados por máquinas, imágenes fabricadas, audios manipulados y videos falsos circulan a una velocidad que parece imparable y con un grado de verosimilitud inquietante. Los deepfakes y los ejércitos de bots automatizados hacen que la producción de noticias falsas alcance una escala difícil de enfrentar.
Sin embargo, la misma tecnología que representa un riesgo puede ser también una aliada. Cada vez más equipos de verificación la utilizan para detectar, rastrear y combatir diversas formas de desinformación. La clave está en comprender que la IA no sustituye al periodista o al investigador, sino que los complementa; además, puede ser un recurso valioso para el usuario común, ofreciendo orientación en un entorno difícil de navegar.
La tarea de verificación es demandante respecto a recursos humanos, de tiempo y de herramientas. En este contexto, la IA actúa como un asistente para identificar frases susceptibles de verificación en discursos, rastrear la circulación de narrativas en redes sociales, detectar manipulaciones en imágenes o audios y sugerir fuentes oficiales para acelerar la comprobación. Lo que antes requería horas de trabajo, ahora puede resolverse en menos tiempo, siempre que el enfoque híbrido combine automatización y análisis crítico humano.
Algunas iniciativas de verificación asistida por IA
Ejemplos en distintas partes del mundo muestran cómo se está aplicando esa lógica híbrida. Por mencionar algunos, a nivel global, la agencia AFP Fact Check colabora con empresas de inteligencia artificial para fortalecer sus sistemas de monitoreo de imágenes y videos. Con el entrenamiento de modelos en bases de datos confiables, pueden identificar alteraciones visuales que serían difíciles de detectar a simple vista, como ediciones mínimas en fotografías que cambian el sentido de una noticia.
El International Fact-Checking Network (IFCN) ha promovido proyectos que emplean IA para mapear la circulación de rumores y verificaciones en redes sociales. Su iniciativa analiza cómo viajan los desmentidos y qué tanto compiten en alcance con las falsedades. De este modo, no sólo se identifica el contenido falso, sino que se estudia la arquitectura de su difusión digital.
En el Reino Unido, Full Fact desarrolló un sistema que analiza debates y redes sociales para señalar afirmaciones verificables y priorizarlas según su potencial de daño. La organización trabaja además con algoritmos que monitorean en tiempo real plataformas como Facebook y X, identificando frases recurrentes o narrativas que se repiten a pesar de haber sido desmentidas.
En Estados Unidos, el proyecto académico ClaimBuster, creado en la Universidad de Texas en Arlington, identifica automáticamente frases verificables en discursos políticos y contenidos en plataformas digitales. Su aporte ha sido liberar tiempo en las redacciones: en lugar de invertir horas en transcribir y seleccionar declaraciones, los verificadores reciben ya una lista priorizada de afirmaciones potencialmente falsas o engañosas, que luego analizan con fuentes y contexto.
En América Latina, Chequeado en Argentina, explora aplicaciones de IA no sólo para acelerar la redacción de verificaciones, sino para rastrear conversaciones en redes sociales. El equipo detecta qué temas desinformativos crecen más rápido en plataformas y genera alertas internas para priorizar su trabajo.
La apuesta del OMD-Tec
En México, el Observatorio de Medios Digitales del Tecnológico de Monterrey (OMD-Tec) orienta sus esfuerzos a identificar y monitorear narrativas dominantes y emergentes en el panorama de los medios digitales, así como evidenciar mecanismos de desinformación que buscan engañar a la población o manipular la opinión pública.
La apuesta del OMD-Tec para el uso de la IA consiste en integrar sus metodologías en herramientas al alcance de cualquier usuario, de forma que puedan recurrir a ella para disipar dudas y, al mismo tiempo, fortalezcan su Alfabetización Mediática e Informacional al explicar los procesos por los que se confirma o desmiente la información.
Además, el OMD-Tec se suma a los esfuerzos de otros observatorios en el país que, de forma colaborativa, marcan el camino de los estándares éticos y metodológicos para la verificación en el país, como lo es la Red de Observatorios de Medios ROM-CONEICC.
La inteligencia artificial no es una varita mágica, pero sí una herramienta decisiva para enfrentar la desinformación con la complejidad y las dimensiones que actualmente se presenta. Es necesario asumir este reto con la convicción de que el derecho a información de calidad sólo se protege si innovamos, colaboramos y ponemos a la ciudadanía como prioridad.