El uso excesivo de la inteligencia artificial generativa puede generar una deuda cognitiva. Es decir, una dependencia que reduce capacidades como la memoria, la creatividad y el procesamiento profundo a lo largo del tiempo. A esa conclusión llegó el estudio Tu cerebro en ChatGPT: acumulación de deuda cognitiva cuando usás asistentes de IA para escribir ensayos, realizado por investigadores del MIT (Instituto Tecnológico de Massachusetts).
El impacto de trabajar con o sin asistencia de IA
El estudio se llevó a cabo con 54 estudiantes universitarios, divididos en tres grupos: uno escribió ensayos sin asistencia (“brain-only”), otro utilizó un buscador tradicional como Google, y el tercero trabajó con ayuda de ChatGPT-4o. Durante tres sesiones, cada participante redactó ensayos, mientras se registraba su actividad cerebral mediante electroencefalografía (EEG) de alta densidad. En una cuarta sesión, un subconjunto cambió de condición: quienes usaban IA escribieron sin ella y viceversa. Además de los datos neuronales, se analizaron los textos generados, la calidad percibida y el grado de apropiación que los participantes sentían sobre sus producciones.
Los resultados mostraron que el grupo que escribió sin asistencia presentó una conectividad cerebral más robusta, especialmente en regiones asociadas al pensamiento crítico, la creatividad y la memoria. En cambio, quienes usaron ChatGPT mostraron una actividad cerebral significativamente más baja y menor sentido de autoría. Al dejar de usar la IA, estos participantes no recuperaron plenamente su involucramiento cognitivo, mientras que quienes comenzaron sin IA y luego la incorporaron lograron mantener una alta implicación mental.
Los autores concluyen que el uso continuado de inteligencia artificial desde etapas tempranas puede generar una “deuda cognitiva” acumulativa, reduciendo el desarrollo de habilidades cognitivas clave. Sin embargo, sugieren que un uso equilibrado -comenzando con pensamiento propio y utilizando IA en etapas posteriores- podría mitigar estos efectos.
Consultamos a cinco expertos para analizar los resultados de este informe y evaluar de qué manera se puede integrar la IA en el aula de manera significativa para no impactar de manera nociva en los procesos cognitivos.
Usar la inteligencia artificial sin mediación
El uso intensivo de inteligencia artificial sin una base cognitiva previa puede tener efectos negativos medibles en el desarrollo mental, especialmente en etapas formativas, advierten los especialistas.
“Durante la niñez y adolescencia, la corteza prefrontal y los sistemas de memoria aún están en maduración. El uso excesivo de IA sin entrenamiento previo de habilidades básicas puede afectar: la consolidación de memoria a largo plazo (hipocampo); la inhibición conductual y atención sostenida (corteza prefrontal); la mentalización social (redes de la empatía y teoría de la mente)+, subraya Claudio Waisburg, médico neurocientífico y director del Instituto SOMA.
En su experiencia clínica ha observado que muchos niños y adolescentes muestran “dificultades para explicar lo que escriben con IA, problemas para sostener la atención y recordar contenido procesado digitalmente, homogeneización del pensamiento y pérdida de sentido de autoría”, explica.
Por su parte, Alejandra Gómez, psicoanalista integrante de APA (Asociación Psicoanalítica Argentina), psiquiatra y magister en psiconeurofarmacología, afirma que “el uso “irrestricto’ de chatbots de IA como ChatGPT, conducen a una limitación para “apropiarse del conocimiento”. Y añade que con estas herramientas tecnológicas “en un clic los datos están “servidos’: en corto tiempo, con organización, datos precisos (¡a veces, no!) pero de modo uniforme. Es decir, no hay una búsqueda guiada por el deseo de ese sujeto a investigar un tema”.
Integrar la IA con sentido
“Para prevenir el impacto nocivo, utilicemos la inteligencia artificial para contribuir a nuestros procesos de pensamiento, no para reemplazarlos. Como cualquier tecnología, el punto es cómo lo usamos, no la tecnología en sí misma.”, afirma Federico Fros Campelo, director de Ciencias del Comportamiento en el ITBA. El especialista advierte que “los procesos neuronales de índole cognitiva si no se ejercitan se van atrofiando”, y plantea una propuesta concreta: “iniciar instancias creativas que luego puedan ser potenciadas por la IA y no un reemplazo y movida”.
Claudio Waisburg coincide: “La inteligencia artificial no es buena ni mala en sí misma. Todo depende de su integración”. Propone un uso consciente y progresivo: “Esfuerzo primero, IA después: iniciar tareas sin asistencia externa. Hay que usar la IA como prótesis cognitiva, no reemplazo; y destacar el entrenamiento metacognitivo explícito: enseñar a pensar sobre el pensamiento; y luego una evaluación de proceso, no solo de producto. Eso es: valorar el camino, no solo el resultado”.
El conocimiento se construye
El conocimiento es parte de una construcción subjetiva. Alejandra Gómez lo explica así: “el infante humano lleva un largo proceso en “captar’ e integrar el conocimiento de los objetos del mundo externo. Esto siempre se produce cuando su entorno, su ambiente, sostenga y facilite este conocimiento”. Cuando se estudia y se investiga ocurre algo similar: “hay búsqueda de textos (siempre hay una curiosidad y un interés singular), lectura, comprensión, asociación de contenidos, asociación singular con la persona que lo lee. Escribir, hacer esquemas, dibujos son modalidades creativas que ayudan a volver a pensar una y otra vez los contenidos encontrados”.
Por su parte, Natalia Jasin, directora general y fundadora de Bounty EdTech, advierte que “el uso constante de IA puede generar una pérdida sutil de iniciativa personal, sobre todo en tareas que requieren pensamiento original o toma de decisiones”. Y agrega: “me preocupa especialmente el uso de estas tecnologías en infancias y adolescencias, donde todavía no hay marcos regulatorios claros, ni protocolos de contención”. Para Jasin, “el diferencial no está en lo que hacés, sino en cómo lo hacés, desde qué lugar humano, único e irrepetible construís tu propuesta”. Y concluye: “eso no se automatiza, se humaniza”.
Fuente: Instituto Tecnológico
de Massachusetts (MIT)
