Pasar al contenido principal
Tecnológico de Monterrey Tecnológico de Monterrey
  • Inicio
  • Noticias
  • Recursos
  • Nosotros
  • Contacto

Compartir

La era agéntica

La Era Agéntica de la IA: del discurso a la acción

2026-02-03
Fernando Gutiérrez
Noticias

Durante los último años nos acostumbramos a pensar la inteligencia artificial (IA) como un “gran oráculo práctico” al que le preguntas algo y te contesta; le das un texto y te lo resume; le pides ideas y te sugiere opciones. Ese paradigma –la IA como asistente conversacional o como herramienta de apoyo– está cambiando rápido. Hoy estamos incursionando a una nueva era, la Era Agéntica de la IA: un momento histórico en el que los sistemas ya no solo generan contenido, sino que operan como agentes capaces de planear, decidir, ejecutar tareas y coordinarse con otros sistemas para lograr objetivos. En lugar de “decirme cómo hacerlo”, la promesa (y el riesgo) es “ya lo hice”.

Un agente de IA no es solo un modelo que produce texto o imágenes; es una combinación de capacidades que permite la interpretación de metas, descomposición de problemas, memoria profunda (persistencia de contexto), interacción con herramientas (APIs, navegadores, hojas de cálculo, CRMs, repositorios), verificación, y ejecución en cadena. Dicho de otra manera, la IA entra a nuestras vidas como un actor operativo –con todos los riesgos que esto implica–. Puede reservar, comprar, redactar y enviar documentos, analizar datos y disparar acciones, abrir tickets, programar campañas, gestionar inventarios o vigilar anomalías. Todo esto suena muy bien hasta que recuerdas que actuar en el mundo implica responsabilidad, trazabilidad y límites. Y ahí empieza lo desafíante.

Qué cambia cuando la IA tiene agencia

La Era Agéntica altera la infraestructura invisible de la vida social: la burocracia, los procesos y la coordinación. Mucho de lo que llamamos “trabajo” es, en realidad, microgestión de información (correos, formularios, reportes, seguimientos, conciliaciones y flujos de autorización). Un agente puede hacer eso sin fatiga, a escala, y con una velocidad que vuelve obsoletos muchos ciclos administrativos. Esto reconfigura el mercado laboral no solo porque “automatiza tareas”, sino porque transforma la arquitectura organizacional: roles intermedios pueden resultar ya no tan necesarios, la supervisión se vuelve más técnica, y las cadenas de decisión pueden comprimirse.

En educación, la agencia abre una paradoja. Por un lado, agentes bien diseñados podrían convertirse en tutores personalizados, asistentes de investigación, ayudantes de escritura con retroalimentación formativa, o facilitadores de proyectos complejos (desde diseño hasta análisis de datos). Por otro, existe el riesgo de un aprendizaje “tercerizado”. El estudiante ya no aprende a argumentar, sino a delegar; ya no comprende un proceso, sino que “orquesta” a un agente para producir un resultado (Rivera-Betancur & Gutiérrez-Cortés, 2025). La pregunta no es si se usará, sino qué tipo de alfabetización necesitaremos para convivir con agentes y saber definir metas, detectar errores, auditar salidas, entender límites, y sostener criterio propio cuando el sistema “aparenta seguridad”.

En seguridad y vida pública, la agencia resulta más cuestionable. Un chatbot puede desinformar; un agente puede operacionalizar la desinformación, segmentar audiencias, programar publicaciones, adaptar mensajes, monitorear reacciones, optimizar narrativas en tiempo real. La diferencia entre un texto falso y una campaña falsamente orgánica es enorme. En el plano del ciberespacio, los agentes pueden automatizar defensas, pero también ataques. La Era Agéntica parece ser entonces una era de “acciones automatizadas” tanto para proteger como para vulnerar.

Información, narrativa y sistemas que deciden

El historiador israelí, Yuval Noah Harari ha insistido en un punto muy útil para pensar esta transición. El poder político y social no depende solo de “verdades”, sino de la capacidad de organizar información y coordinar a millones a través de relatos, instituciones y burocracias (Harari, 2018). En esa lógica, la IA no es únicamente una tecnología de eficiencia; es una tecnología que puede reconfigurar el circuito de producción de significado y, con ello, el ejercicio del poder.

Harari suele subrayar que las sociedades funcionan porque comparten ficciones operativas (historias, credos, constituciones, dinero, marcas, identidades). Lo importante no es si son “mentira” o “verdad” en sentido simple, sino que habilitan cooperación masiva. La IA agéntica entra directo en ese terreno porque puede participar en la fabricación, distribución y ajuste de relatos a escala, con microsegmentación y personalización. No solo genera mensajes; puede probarlos, repetirlos y optimizarlos. Esto vuelve más frágil el espacio público: si cada persona vive en una burbuja narrativa ajustada a sus sesgos, la posibilidad de un “nosotros” compartido se diluye.

Los sistemas modernos gobiernan mediante procesamiento de información (censos, registros, estadísticas, vigilancia, administración). En esa lectura, la agencia de la IA no solo “apoya” al Estado o a las corporaciones; puede convertirse en una capa decisional: priorizar casos, asignar recursos, detectar riesgos, perfilar ciudadanos o consumidores. El dilema aquí es interesante. Cuando la decisión se automatiza, ¿quién responde por el daño? y, sobre todo, ¿quién puede auditar el criterio? En un mundo de agentes, la legitimidad no solo se gana con “buenas intenciones”, sino con trazabilidad: saber por qué el sistema actuó, con qué datos, bajo qué reglas, y cómo corregirlo. Esto es algo que se contempló ya en la regulación sobre el uso de la IA en la Unión Europea (Unión Europea, 2024, arts. 12–14, 21).

Harari advierte que las tecnologías de información pueden construir nuevas formas de autoridad: cuando la gente delega decisiones a sistemas que “parecen” saber más que nosotros, se normaliza una obediencia suave. Trasladado a la Era Agéntica, el riesgo no es solo que los agentes se equivoquen, sino que dejemos de ejercer juicio porque “el sistema ya lo resolvió”; culturalmente, la agencia naturaliza la delegación (Harari, 2019).

Agencia sin juicio es velocidad sin dirección

Los agentes pueden planear y ejecutar, pero eso no significa que tengan “juicio moral” o comprensión humana. Pueden optimizar métricas sin captar consecuencias. Ahí se juega la gran diferencia entre inteligencia instrumental y sabiduría práctica. La Era Agéntica puede producir organizaciones hipereficientes pero ciegas a daños colaterales como la discriminación algorítmica, la exclusión, la vigilancia excesiva, la degradación del debate público, la dependencia tecnológica, y la pérdida de capacidades humanas básicas (escritura, cálculo, deliberación).

Por eso el debate serio no es si debemos o no aceptar la IA, sino qué gobernanza queremos: límites por dominio (salud, finanzas, justicia), estándares de auditoría, evaluación de riesgos, supervisión humana real, controles de seguridad en herramientas conectadas, y diseños que prioricen explicabilidad y revisión. Si la IA tiene agencia, entonces necesitamos contrapesos comparables a los que construimos para el poder humano: reglas, transparencia y responsabilidad.

Hacia una convivencia madura con agentes: alfabetización, instituciones y diseño

La Era Agéntica es una realidad, así que habrá que repensar tres cosas. Primero, alfabetización: enseñar a definir objetivos, separar tareas, verificar, documentar decisiones y detectar fallas. No basta saber cómo generar prompts efectivos; hay que saber pensar con sistemas sin perder el criterio. Segundo, instituciones: actualizar marcos legales y administrativos para acciones automatizadas, registro de decisiones, y rutas de apelación para cuando un agente se equivoque. Tercero, diseño: agentes con límites (permisos granulares, confirmaciones, pruebas antes de ejecutar, monitoreo continuo), y con trazabilidad desde el inicio.

Conclusión

La Era Agéntica no es solo un nuevo salto tecnológico; es un cambio de época: pasamos de herramientas que “asisten” a sistemas que “actúan”. Por tal razón se trata de un tema profundamente humanístico: redefine trabajo, autoridad, educación, verdad pública y autonomía. Cuando cambia la ecología de la información, cambia la política; cuando cambia la política, cambia lo que entendemos por sociedad. La pregunta no es si habrá agentes —porque ya los hay— sino si lograremos construir un mundo donde esa agencia aumente capacidades humanas sin desmantelar lo que nos hace humanos: juicio, responsabilidad, deliberación y sentido compartido.

Referencias

Harari, Y. N. (2018). 21 lessons for the 21st century. Spiegel & Grau.

Harari, Y. N. (2019, 2 de diciembre). Homo Deus: After God and Man, Algorithms Will Make the Decisions. Yuval Noah Harari https://www.ynharari.com/homo-deus-after-god-and-man-algorithms-will-make-the-decisions/?utm_source=chatgpt.com

Rivera-Betancur, J., & Gutiérrez-Cortés, F. I. (2025). From natives to digital inhabitants: An exploratory look into a new generation of individuals seduced by the apparent benefits of digital technologies. Explorations in Media Ecology, 24(1), 5–22. https://doi.org/10.1386/eme_00233_1

Unión Europea. (2024). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (Artificial Intelligence Act) (DO L, 2024/1689, 12.7.2024)

Logo Footer Tecnológico de Monterrey
  • Inicio
  • Noticias
  • Recursos
  • Nosotros
  • Contacto

© 2024 Observatorio de Medios Digitales