Actualmente recibimos una gran cantidad de información que no podemos asimilar. Una publicación que llega a nosotros por múltiples canales de comunicación, puede ser real y aun así estar “fabricada” (o editada) con inteligencia artificial (IA), sin nosotros saberlo. La clave no es adivinar, sino auditar (fuente, coherencia, huellas técnicas y verificación externa). Identificar si un contenido fue hecho con IA nos debe importar porque hoy es mucho más fácil fabricar textos, imágenes, audios o videos que “parecen reales” y pueden ser usados para manipular emociones, engañar o estafar (UNESCO, 2023). Reconocer este problema ayuda a ajustar el nivel de confianza. Debemos frenar antes de compartir, proteger la reputación (personal e institucional), exigir fuentes verificables y evitar tomar decisiones de alto impacto (salud, dinero, seguridad) basadas en material dudoso o inventado.
Si nos llega un video “impactante”, una secuencia “confirmada”, una imagen “irrebatible” o un correo “urgente”, la pregunta actual ya no es solo “¿es verdad?” sino también “¿cómo se hizo y con qué intención?”. La IA generativa puede producir textos convincentes, fotos inexistentes y voces clonadas, lo que incrementa el riesgo de fraude y suplantación (FTC, 2024). ¿Entonces qué debemos hacer? Lo más útil no es cazar “señales raras” al azar, sino seguir un proceso de identificación que reduzca errores y revele qué tan confiable es lo que estamos viendo.
Siete pasos para la identificación de información generada o manipulada por IA
Antes de analizar si un contenido fue hecho con IA, conviene definir el nivel de riesgo o impacto: ¿qué pasa si es falso y yo lo compartimos o actuamos en consecuencia? No es lo mismo un meme que un “comunicado” sobre salud, seguridad, dinero o reputación. También importa si el mensaje empuja a una acción inmediata (reenviar, donar, dar datos, comprar, votar). Entre mayor sea el costo potencial, más estricto debe ser el proceso de verificación; esta lógica de “encuadrar el riesgo” es consistente con enfoques formales de gestión de riesgos en sistemas de IA (NIST, 2023).
El siguiente paso es ubicar la procedencia real del material. No debemos confiar solo porque la información apareció en X o en TikTok; hay que preguntarnos de dónde viene y quién lo publicó primero. ¿Es la cuenta original o es un repost? ¿La cuenta tiene historial y coherencia a lo largo del tiempo o apareció hace poco? ¿Existe una fuente primaria (documento, entrevista completa, video íntegro, comunicado oficial) o solo hay recortes, capturas y frases sueltas? Si no podemos rastrear el origen de la información, lo responsable es tratarla como no verificada.
Después toca revisar el contexto. Mucha información (o desinformación) se vuelve persuasiva cuando se separa un fragmento de su fecha original, lugar o circunstancia. Vale la pena checar si el contenido es actual o reciclado, si el lugar corresponde con lo que se afirma (detalles del entorno, acentos, letreros, uniformes) y si el supuesto evento aparece reportado fuera de la misma burbuja de cuentas que lo están viralizando. Cuando falta fecha o ubicación clara, sube el riesgo.
Una vez que identificamos el contexto, se debe revisar la coherencia interna, es decir, que el contenido “encaje consigo mismo”. En el texto se buscan contradicciones en cifras, nombres, cargos, secuencias temporales o afirmaciones que cambian entre líneas. En la imagen o video, debemos preguntarnos si sombras, reflejos, proporciones y fondo son compatibles. En el audio, debemos analizar si la entonación y la respiración suenan naturales o si todo es demasiado limpio y plano, como si fuera leído o sintetizado. Una rareza aislada no prueba el uso de IA, pero varias inconsistencias acumuladas sí son una señal fuerte de alerta.
Luego viene la inspección de huellas típicas de generación o manipulación con IA, entendiendo que esto es evidencia auxiliar, no sentencia. En los textos, suelen aparecer frases pomposas sin fuentes, “expertos dicen” sin nombres, conclusiones contundentes sin datos verificables y patrones repetitivos de estructura o tono. En las imágenes, a veces aparecen textos deformados, detalles anatómicos extraños (por ejemplo, manos con dedos de más), reflejos imposibles o una perfección plástica poco creíble. En el video, también pueden notarse fallas finas de sincronía labial, parpadeos raros, bordes que tiemblan (cabello, lentes, manos) o encuadres demasiado convenientes que evitan planos amplios y continuidad. En lo que respecta al audio, se sospecha cuando la voz es excesivamente estable y sin microvariaciones humanas, o cuando una supuesta nota de voz suena como grabación de estudio (FTC, 2024).
A partir de esto, lo decisivo es la verificación externa, lo que significa sacar el contenido de su propia cápsula y ponerlo a prueba. Si se trata de una imagen, puede intentarse una búsqueda inversa; si es video, podemos buscar fotogramas o rastrear versiones anteriores. Si es texto, se detecta una frase exacta entre comillas para ver si está replicado en múltiples sitios o si proviene de una granja de contenido. También es útil contrastar con al menos dos fuentes independientes reales (no dos cuentas que se copian entre sí). Si se trata de un documento filtrado, debemos revisar si hay datos verificables como folio, fecha, firma, dependencia y confirmaciones de terceros confiables. En paralelo, existen estándares técnicos de procedencia (provenance) que buscan registrar y verificar, de forma criptográfica y trazable, el origen y el historial de modificaciones de un contenido (C2PA, 2024). Si lo único que existe son screenshots circulando en la misma plataforma, lo prudente es que consideremos la información como de alto riesgo.
Finalmente, se debe decidir qué hacer. La opción más responsable muchas veces es no compartir. Si necesitamos mencionarlo, debemos hacerlo con advertencia clara: “información no verificada”, “no se encuentra fuente primaria”. Y si el contenido implica suplantación, estafa o daño reputacional, conviene reportarlo en la plataforma y guardar evidencia básica (capturas, enlace, fecha y hora). Debemos recordar que el objetivo del método no es “adivinar” si algo lo hizo una IA, sino ajustar el nivel de confianza con base en un proceso que nos proteja de errores costosos.
Conclusiones
En resumen, ningún indicador aislado (manos raras, tono perfecto, labios desfasados) será suficiente para dictaminar con plena certeza; lo más confiable es combinar método y apoyos externos: primero podemos aplicar este proceso de 7 pasos (riesgo, procedencia, contexto, coherencia, huellas, verificación externa y decisión) y, después, reforzar la verificación con herramientas públicas. En este sentido, vale la pena aprovechar los recursos del Observatorio de Medios Digitales del Tecnológico de Monterrey, que pone a disposición materiales de alfabetización mediática y herramientas de verificación para identificar noticias falsas y entender cómo operan los mecanismos de desinformación. Además, iniciativas como Verifactz permiten a cualquier persona apoyarse en un chatbot de IA para validar información que circula en redes. Si usamos con criterio este tipo de recursos ayudaremos a bajar la incertidumbre, a encontrar mejores pistas y tomar decisiones más responsables antes de compartir para combatir la desinformación que existe en el entorno actual.
Referencias
Coalition for Content Provenance and Authenticity (C2PA). (2024, 20 de septiembre). Content Credentials: C2PA technical specification (v2.1). https://spec.c2pa.org/specifications/specifications/2.1/specs/_attachments/C2PA_Specification.pdf
Federal Trade Commission. (2024, 8 de abril). Fighting back against harmful voice cloning. https://consumer.ftc.gov/consumer-alerts/2024/04/fighting-back-against-harmful-voice-cloning
National Institute of Standards and Technology (NIST). (2023, enero). Artificial Intelligence Risk Management Framework (AI RMF 1.0) (NIST AI 100-1). https://doi.org/10.6028/NIST.AI.100-1
Observatorio de Medios Digitales. (s. f.). Observatorio de Medios Digitales. https://omd.tec.mx/
Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO). (2023). Guidance for generative AI in education and research. https://unesdoc.unesco.org/ark:/48223/pf0000386693