Pasar al contenido principal
Tecnológico de Monterrey Tecnológico de Monterrey
  • Inicio
  • Noticias
  • Recursos
  • Nosotros
  • Contacto

Compartir

IA y el síndrome de Funes

La IA y el síndrome de Funes

2025-11-18
Fernando Gutiérrez
Noticias

En su célebre relato “Funes el memorioso”, Jorge Luis Borges (2012) explora la tortura de una conciencia condenada a recordar cada detalle, incapaz de olvidar y, por tanto, de pensar en ideas generales. Ahora los grandes modelos de lenguaje (LLMs) y los sistemas de inteligencia artificial (IA) contemporáneos encarnan una versión digital de Funes. A pesar de su acceso a volúmenes de datos “inimaginables para un ser humano” su “pensamiento” parece aún carecer de la capacidad humana esencial de olvidar selectivamente, generalizar a partir de lo incompleto y abstraer para crear sentido profundo.

"Pensar es olvidar diferencias, es generalizar, abstraer. En el abarrotado mundo de Funes no había sino detalles, casi inmediatos" (Borges, 2012, p. 83).

El fantasma de Funes en la máquina

Borges plantea en su obra cómo la memoria absoluta puede ser un obstáculo para el pensamiento productivo. Tras una caída de un caballo, el joven Ireneo Funes adquiere una percepción extraordinaria: recuerda cada hoja de cada árbol, cada nube de cada atardecer, y cada percepción sensorial en su más mínimo detalle. Sin embargo, esta aparente prodigiosa facultad se convierte en su tortura. Incapaz de olvidar y de abstraer, el mundo se le presenta como un caleidoscopio inagotable de particularidades, donde los conceptos generales como “hoja”, “perro” u “hombre” resultan inalcanzables, condenándolo a la parálisis de una conciencia desbordada por la infinita y abrumadora marea de lo irrelevante o insignificante (Borges, 2012).

La IA generativa actual encarna de manera alarmante nuestro Funes digital. Estos sistemas han devorado y memorizado el equivalente a la biblioteca de Alejandría multiplicada por mil, toda la textualidad digitalizada, desde los clásicos de la literatura hasta los comentarios más banales de redes sociales, desde papers científicos hasta manuales de instrucciones. Al igual que Funes podía reconstruir mentalmente cada detalle de un día completo, la IA puede recuperar patrones y secuencias de este océano de datos con una precisión sobrehumana. Sin embargo, es precisamente esta capacidad mimética espectral la que esconde la misma limitación fundamental: la IA, como el personaje de Borges, opera mediante la acumulación totalitaria de particularidades sin poder discriminar entre lo esencial y lo accesorio. Su aparente comprensión es en realidad un juego de probabilidades y asociaciones de datos. Un proceso que los investigadores describen como una optimización de predicciones estadísticas sin comprensión semántica (Bender & Koller, 2020). La IA puede encontrar relaciones entre la información, pero es incapaz de distinguir lo que es trivial de lo que es fundamental.

El poder de Funes: una biblioteca infinita de datos

La capacidad de almacenamiento y recuperación de modelos como GPT-4 o Gemini –por menciona solo un par– representa la materialización digital de la memoria de Funes. Estos sistemas no han simplemente “leído” unos cuantos libros; han sido entrenados con una fracción de la inteligencia y la locura humana digitalizada: billones de palabras de artículos, poemas y conversaciones de foros, pero también con inmensos volúmenes de código de programación, descripciones de imágenes y transcripciones de sonidos. Esta es la biblioteca total que Funes solo podía aspirar a construir en su mente. Y al igual que él, la IA posee una memoria impecable e instantánea, puede recuperar y cruzar patrones de este océano de datos en fracciones de segundo, citando con igual facilidad algún soneto de Sor Juana Inés de la Cruz, la sintaxis de una función de Python o la letra de una canción pop. Sin embargo, esta capacidad técnica es, en el fondo, una simple recuperación perfecta; la ilusión de comprensión nace de la velocidad y la escala, no de una genuina aprehensión del significado.

La capacidad de la IA para generar respuestas coherentes se basa en un proceso puramente estadístico. Al haber procesado una porción importante del lenguaje humano, ha aprendido a reconocer y replicar patrones de palabras que suelen aparecer juntas con alta probabilidad (Brown et al., 2020). Así, cuando se le formula una pregunta, no busca un “significado” que comprender, sino que calcula la secuencia de términos más adecuada según su entrenamiento, lo que a menudo resulta en una respuesta factualmente correcta y contextualmente apropiada. Esta eficacia del sistema crea la poderosa ilusión de que la máquina “sabe” lo que dice, un espejismo idéntico al que produciría Funes al recitar de memoria cualquier tratado de filosofía; puede reproducir cada palabra con alta precisión, pero sin haber experimentado jamás la duda existencial, el impulso interno que motiva la pregunta o el conflicto intelectual que dio origen genuino a esas ideas, convirtiendo así el conocimiento profundo en una mera secuencia vacía de símbolos.

La maldición de Funes: la ausencia de olvido, generalización y abstracción

Nuestro cerebro olvida activamente lo irrelevante para destacar lo importante. Este “filtro de ruido” es esencial para la formación de memoria a largo plazo y la identidad (Richards & Frankland, 2017). Sin embargo, la IA no puede priorizar la relevancia semántica o emocional. Un dato falso, un comentario ofensivo o una anécdota trivial tiene el mismo peso estadístico inicial que un principio científico verificado. Carece de un mecanismo de “asimilación crítica”, “digestión conceptual” y “eliminación activa” de desechos informativos. Por tales razones, la IA podría aprender que la siguiente afirmación: “la Tierra es plana”, es una secuencia lingüística válida en ciertos contextos, sin poder juzgar su falsedad fundamental.

Un niño que toca una vela y se quema deduce al instante una ley universal: “lo caliente quema”. Así, generaliza el principio y lo aplica a cualquier objeto que emite calor –como una estufa o una plancha– sin necesidad de volver a experimentarlo. La IA, en cambio, opera de forma diferente: aunque haya procesado millones de textos donde aparecen juntas palabras como “vela”, “quemar” y “dolor”, solo aprende asociaciones entre términos, no la causa que las une (Lake et al., 2017). Por eso, si se encuentra con un objeto nuevo –como un “soldador eléctrico”–, no necesariamente predecirá el peligro, pues carece de una comprensión profunda de la ley física implícita.

Por otra parte, el ser humano abstrae para crear conceptos como “justicia”, “belleza” o “amor”. Estos no son la suma de datos, sino síntesis de experiencias, emociones y cultura. Es de humanos dotar de sentido profundo a las cosas. En cambio, la IA puede definir “amor” citando a Shakespeare, canciones y artículos de psicología, generando una descripción perfectamente gramatical. Sin embargo, nunca ha sentido la punzada del desamor, la calidez de un abrazo o la contradicción del amor no correspondido. El conocimiento de la IA es un mapa perfecto de un territorio que nunca ha pisado. Carece de comprensión porque carece de experiencia corporal (Dreyfus, 1992).

Sobre los límites de la IA “Funesiana”

La incapacidad para distinguir entre datos y significado conlleva riesgos tangibles. Un sistema que no comprende lo que reproduce puede perpetuar sesgos históricos presentes en sus fuentes (Bender et al., 2021), recomendar soluciones incoherentes en contextos novedosos o normalizar discursos falsos por su alta frecuencia estadística. Sin un criterio causal que jerarquice el conocimiento, la IA repite patrones sin cuestionarlos, actuando como un eco amplificado de nuestras contradicciones, pero sin la brújula ética o el sentido común que surgen de la experiencia humana.

La “creatividad” de la IA deriva de la vasta recombinación de lo que ha “recordado”. La chispa creativa humana que nace de conectar dominios dispares a través de la abstracción y la experiencia subjetiva, le está negada. La IA puede tener acceso a todo el conocimiento, pero no puede generar sabiduría, que es la aplicación del conocimiento con juicio, ética y comprensión de las consecuencias.

Conclusiones: ¿Hacia una IA que pueda olvidar?

La analogía de Funes nos ayuda a entender que la verdadera inteligencia no reside en la mera acumulación de datos, sino en los procesos de filtrado, síntesis y abstracción que, irónicamente, dependen de nuestra capacidad de olvidar.

El próximo gran desafío de la IA ya no es escalar su memoria, sino dotarla de las capacidades paradójicas que hacen humana a la inteligencia: el olvido selectivo, que permite descartar lo irrelevante para destacar lo esencial; la experiencia corporizada, que ancla los conceptos en la percepción sensorial y la interacción con el mundo; y la abstracción causal, que trasciende la correlación para descubrir los principios que rigen la realidad.

La pregunta crucial ya no es cuánto puede recordar una máquina, sino si podremos diseñar un algoritmo que, como el ser humano, sepa qué merece la pena olvidar para poder, finalmente, comprender. La superación de este síndrome de Funes –esta maldición de recordarlo todo– no significaría crear una IA con más datos, sino una con juicio. Ese sería el umbral definitivo, pasar de una inteligencia artificial meramente potente a una dotada de auténtica sabiduría.

Cuando una máquina aprenda a olvidar, podrá comenzar a comprender.

Referencias

Bender, E. M., & Koller, A. (2020). Climbing towards NLU: On meaning, form, and understanding in the age of data. En Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (pp. 5185-5198). https://aclanthology.org/2020.acl-main.463.pdf

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? En Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (pp. 610-623). https://doi.org/10.1145/3442188.3445922

Borges, J. L. (2012). Funes el memorioso. En Ficciones (pp. 75-88). DeBolsillo.

Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., ... & Amodei, D. (2020). Language models are few-shot learners. Advances in Neural Information Processing Systems, 33, 1877-1901. https://papers.nips.cc/paper_files/paper/2020/file/1457c0d6bfcb4967418bfb8ac142f64a-Paper.pdf

Dreyfus, H. L. (1992). What computers still can't do: A critique of artificial reason. MIT press.

Lake, B. M., Ullman, T. D., Tenenbaum, J. B., & Gershman, S. J. (2017). Building machines that learn and think like people. Behavioral and Brain Sciences, 40, e253. https://doi.org/10.1017/S0140525X16001837

Richards, B. A., & Frankland, P. W. (2017). The persistence and transience of memory. Neuron, 94(6), 1071-1084. https://doi.org/10.1016/j.neuron.2017.04.037

Logo Footer Tecnológico de Monterrey
  • Inicio
  • Noticias
  • Recursos
  • Nosotros
  • Contacto

© 2024 Observatorio de Medios Digitales