La irrupción de la inteligencia artificial generativa (GenAI) en los entornos educativos ha sido tan vertiginosa como prometedora. Herramientas como ChatGPT se han popularizado rápidamente por su capacidad para asistir en redacción, resolución de problemas, traducción de textos, desarrollo de código, entre muchas otras funciones. La promesa es tentadora: personalización, retroalimentación inmediata y mayor accesibilidad al conocimiento. Sin embargo, la pregunta que debemos hacernos no es solo "¿qué puede hacer la IA por los estudiantes?", sino "¿qué están dejando de hacer los estudiantes cuando usan IA?".
Una reciente investigación trabajó en un estudio para identificar este tipo de efectos que la GenAI está generando entre los estudiantes. Al comparar el desempeño de estudiantes universitarios expuestos a distintos tipos de apoyo (ChatGPT, experto humano, herramientas de análisis de escritura y ningún apoyo), los investigadores encontraron que, si bien el grupo que utilizó ChatGPT mejoró significativamente sus ensayos escritos, no se evidenció un aumento en su motivación intrínseca, ni en su capacidad de transferir el conocimiento a otros contextos. Más aún, se detectaron patrones preocupantes de "pereza metacognitiva": una tendencia a evitar procesos reflexivos y críticos al delegar tareas cognitivas en la IA.
La educación del siglo XXI debe preparar a las personas para convivir con tecnologías inteligentes, no para ser sustituidas por ellas. En este contexto, surge el concepto de "inteligencia híbrida", entendido como la colaboración sinérgica entre seres humanos e inteligencias artificiales para potenciar capacidades, no suplantarlas. El trabajo "Designing educational technologies in the age of AI: A learning sciences‐driven approach" de Luckin y Cukurova (2021) que habla sobre "inteligencia aumentada" propone modelos pedagógicos donde la IA actúa como amplificador, no como sustituto, de las capacidades cognitivas humanas. Estos enfoques reconocen que tanto humanos como máquinas tienen fortalezas complementarias: los humanos destacan en pensamiento crítico, creatividad, comunicación efectiva y juicio contextual; las máquinas, en velocidad de procesamiento, acceso a grandes volúmenes de información y capacidad de automatización.
El problema aparece cuando esta colaboración se desequilibra. En la investigación mencionada, los estudiantes que interactuaron con ChatGPT durante la etapa de revisión de sus ensayos mostraron un patrón repetitivo: revisar → consultar a la IA → copiar o adaptar la respuesta → finalizar. Es decir, interrumpieron procesos esenciales como el monitoreo, la evaluación y la reflexión sobre sus propias ideas. La IA, en vez de ser un andamiaje para pensar mejor, se convirtió en un atajo para terminar más rápido.
La metacognición es la capacidad de pensar sobre el propio pensamiento. Involucra habilidades como planificar, monitorear, evaluar y ajustar estrategias de aprendizaje. Es, en pocas palabras, el "motor interno" del aprendizaje profundo. Cuando este motor se apaga —porque lo delegamos a una máquina— corremos el riesgo de volvernos más pasivos, menos analíticos y, en última instancia, menos autónomos.
El debate, entonces, no debe centrarse en si la IA es buena o mala, sino en cómo podemos diseñar experiencias educativas que aprovechen sus beneficios sin desactivar las habilidades humanas esenciales. A continuación, se proponen algunos lineamientos para avanzar hacia una educación verdaderamente híbrida:
- Rediseñar las tareas educativas para activar la metacognición
Las tareas deben invitar a los estudiantes a tomar decisiones, justificar elecciones, comparar perspectivas y revisar críticamente sus procesos. Las tareas educativas deben ir más allá de exigir un producto final correcto o bien presentado. Para activar la metacognición, es necesario diseñar actividades que inviten al estudiante a pensar sobre su propio proceso de aprendizaje.
- Incorporar la IA como mediador, no como autor
Implica fomentar un uso crítico y estratégico de la IA: pedirle ideas iniciales, ejemplos alternativos, explicaciones más claras o retroalimentación sobre un texto propio, pero evitando que genere directamente el producto final. Cuando los estudiantes delegan la totalidad de una tarea a la IA, se pierde la oportunidad de desarrollar juicio, argumentación y estilo propio, Además es clave establecer reglas claras de uso ético y pedagógico.
- Evaluar procesos, no solo productos
En lugar de calificar únicamente el texto final, se pueden valorar también las etapas del proceso: planificación, borradores, reflexiones sobre el uso de herramientas y autoevaluaciones. Esto fomenta una cultura de aprendizaje más profunda y honesta.
- Capacitar a docentes para guiar el uso crítico de IA
Los docentes necesitan formación no solo técnica, sino pedagógica: cómo diseñar actividades con IA, cómo detectar dependencia, cómo fomentar habilidades de regulación y cómo usar la IA como una oportunidad para enseñar pensamiento crítico.
- Fomentar una ciudadanía digital activa y ética
La educación con IA también es una educación en valores. Preguntas como "¿es justo usar IA para esta tarea?", "¿qué aprendí realmente al usar esta herramienta?", o "¿cómo afecta esto mi manera de pensar?" deben formar parte del diálogo educativo cotidiano.
Estamos apenas comenzando a comprender el impacto real de la IA generativa en el aprendizaje. Es innegable que estas herramientas pueden ser aliadas poderosas si se usan con criterio y propósito. Pero también es claro que su uso acrítico puede erosionar habilidades fundamentales para la vida y el pensamiento autónomo.
La verdadera inteligencia híbrida no se trata de dividir funciones entre humanos y máquinas como piezas en un tablero, sino de construir una relación ética, consciente y estratégica con la tecnología. Educar en tiempos de inteligencia artificial implica mucho más que enseñar a usar herramientas: exige formar personas capaces de pensar con ellas, sin dejar de pensar por sí mismas. Porque el desafío no es que la IA nos sustituya, sino que nos acompañe sin minar lo que nos hace profundamente humanos. (O)