Imagina tener un asistente personal que escribe todo por ti. Le das una idea y, en segundos, genera un texto coherente, bien estructurado y aparentemente perfecto. Herramientas de inteligencia artificial (IA) generativa como ChatGPT prometen liberarnos de la carga mental de redactar, pero a un precio insospechado.
Una investigación pionera del MIT Media Lab ha acuñado un término preocupante para describir el efecto que causa ChatGPT en el cerebro humano: ”Deuda cognitiva acumulativa” (Kosmyna et al., 2025).
El experimento: cerebro, buscador y ChatGPT
Para medir el impacto real, los investigadores diseñaron un experimento con 54 estudiantes universitarios que dividieron en tres grupos:
- Grupo “Solo cerebro”: escribió sus ensayos sin ayuda digital alguna.
- Grupo “Buscador”: pudo usar motores de búsqueda web tradicionales.
- Grupo “LLM”: utilizó exclusivamente ChatGPT.
De acuerdo con el estudio de Kosmyna y los investigadores asociados (2025), durante varias sesiones se monitorizó la actividad cerebral de los integrantes de cada grupo con electroencefalografía (EEG), se analizaron los ensayos con procesamiento de lenguaje natural y se evaluó su percepción subjetiva.
Un cerebro en stand-by
Los resultados pintaron un panorama claro sobre cómo la IA afecta nuestra mente.
- Conexiones cerebrales debilitadas: El grupo “Solo cerebro” mostró la actividad neuronal más extensa y compleja, una señal de esfuerzo cognitivo profundo. El grupo de “Buscadores” tuvo un nivel intermedio. En contraste, el grupo que usó ChatGPT exhibió la conectividad cerebral más débil. Su cerebro simplemente no trabajó igual de intensamente.
- El “desacondicionamiento” mental: El hallazgo más alarmante surgió cuando los participantes que habían usado ChatGPT intentaron escribir sin ayuda. Su actividad cerebral se mantuvo significativamente más baja que la de quienes siempre habían trabajado solos. Fue como si el “músculo” mental se hubiera atrofiado o quedado en “stand-by” tras depender de la IA, un efecto que los investigadores llamaron “desacondicionamiento cognitivo”.
- Pérdida de autoría y memoria: Quienes usaron ChatGPT reportaron un sentido de autoría mucho menor sobre sus textos. Muchos no podían recordar ni citar frases de sus propios ensayos minutos después de haberlos “terminado”. Este fenómeno se alinea con la teoría de la ”carga cognitiva” (Sweller, 1988), que sugiere que los recursos mentales son limitados. Al externalizar el proceso de escritura –que implica planificación, organización y resolución de problemas– liberamos recursos, pero también evitamos el proceso de aprendizaje que consolida el conocimiento en la memoria a largo plazo (Karpicke & Blunt, 2011).
- Uniformidad y falta de originalidad: Los ensayos creados con ChatGPT fueron más homogéneos, con menos variedad de vocabulario y temas, contrario a la que se podría pensar del caso. Los del grupo “Solo Cerebro”, en cambio, fueron más originales y diversos. La IA, al estar entrenada en patrones comunes, tiende a producir textos que, aunque competentes, carecen de la huella única del pensamiento humano individual.
La deuda cognitiva
El concepto de “deuda cognitiva” es una analogía interesante. En el desarrollo de software, por ejemplo, la “deuda técnica” se refiere a los costos futuros de optar por una solución rápida, fácil e inmediata, en lugar de un enfoque mejor que lleva más tiempo (Digkas et al., 2021). Con la IA, sucede algo similar. Pagamos menos “intereses” mentales en el momento (menos esfuerzo, más rapidez), pero acumulamos una deuda que se cobra después en forma de habilidades cognitivas mermadas.
Aunque los primeros ensayos con ChatGPT obtuvieron buenas calificaciones, el desempeño del grupo LLM decayó en sesiones posteriores, quedando por debajo del grupo “Solo Cerebro” en todos los niveles: neuronal, lingüístico y evaluativo. La facilidad inicial parece ser un espejismo que puede ocultar un deterioro progresivo de nuestra capacidad para pensar de forma crítica y autónoma.
¿Cómo usar la IA sin perder nuestra mente?
Lo descrito anteriormente no debe dar lugar a una “demonización” de las herramientas de IA porque son increíblemente poderosas para tareas específicas. El desafío está en cómo las integramos en nuestra vida y, especialmente, en la educación.
El estudio del MIT sugiere que la adopción de los LLM debe ir acompañada de estrategias pedagógicas diseñadas para mantener la participación cognitiva (Kosmyna et al., 2025). Por ejemplo, en lugar de usar la IA para generar el texto final, podríamos usarla para lo siguiente:
- Aprendizaje comparativo guiado: pedir al estudiante que contraste su propia respuesta con una generada por la IA, identificando aciertos, omisiones y sesgos. El objetivo es evaluar críticamente, no adoptar el texto de la IA.
- Reescritura reflexiva: solicitar al alumnado que tome un texto generado por la IA y lo reescriba con su propio estilo, tono o enfoque disciplinar, explicando las decisiones de edición.
- Prompts metacognitivos: hacer que los estudiantes diseñen y documenten sus prompts, reflexionando sobre cómo cada ajuste modifica la salida de la IA y qué revela sobre su propio proceso de pensamiento.
- Taller de detección de errores o alucinaciones: ofrecer respuestas de IA deliberadamente imperfectas para que los alumnos las verifiquen, corrijan y respalden con fuentes confiables.
- Co-creación argumentativa: dividir el trabajo entre IA y estudiante, para que la IA proponga contraargumentos o perspectivas opuestas, y el estudiante deba defender, matizar o refutar con evidencia.
La IA debe funcionar un amplificador del pensamiento crítico y no como un sustituto del esfuerzo cognitivo. Desde la perspectiva de la ecología de medios (Strate, 2017), la IA debería entenderse como un medio que reconfigura el entorno de nuestro pensamiento, no como la tecnología dominante que lo absorbe. Su función ideal es ampliar nuestras capacidades cognitivas sin desplazar la experiencia humana, recordándonos que todo avance mediático tecnológico, pero también condiciona, la manera en que pensamos, sentimos y aprendemos.
Referencias
Digkas, G., Ampatzoglou, A., Chatzigeorgiou, A., Avgeriou, P., Matei, O., & Heb, R. (2021). The risk of generating technical debt interest: A case study. SN Computer Science, 2(1), Article 12. https://doi.org/10.1007/s42979-020-00406-6
Karpicke, J. D., & Blunt, J. R. (2011). Retrieval practice produces more learning than elaborative studying with concept mapping. Science, 331(6018), 772-775. https://www.science.org/doi/10.1126/science.1199327
Kosmyna, N., et al. (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. MIT Media Lab. https://arxiv.org/abs/2506.08872
Strate, L. (2017). Media ecology: An approach to understanding the human condition. Peter Lang.
Sweller, J. (1988). Cognitive load during problem solving: Effects on learning. Cognitive Science, 12(2), 257-285. https://doi.org/10.1207/s15516709cog1202_4