El problema de la IA en las aulas
Estuve todo el año lidiando con el uso de la inteligencia artificial de mis alumnos y esto es lo que tengo para decir.
Es jueves, son las 7:40 de la mañana e ingreso a mi curso de primer año de secundario en una escuela de la ciudad de Buenos Aires. La materia que dicto es Historia y el tema que nos toca analizar hoy es el Antiguo Egipto. Para abordar este contenido decido trabajar con un video que analiza los problemas que tienen los historiadores para comprender el pasado, y en particular, el Antiguo Egipto. A medida que vamos viendo este video voy pausando y explicando cada una de las partes, dialogando con los estudiantes. Así mantengo su atención y evito que se pierdan en detalles que pueden resultar complejos. Cuando terminamos, les entrego una fuente primaria y les pido que, en parejas, resuelvan una serie de actividades. La idea es que puedan entender lo difícil que resulta reconstruir la historia de Egipto. No es una actividad fácil, porque requiere varias habilidades de discernimiento y pensamiento histórico, que son poco naturales para todos nosotros. Por eso les insisto varias veces en que me consulten ante cualquier duda.
No pasan ni diez minutos cuando descubro a uno de los grupos enviando una foto de la fuente a ChatGPT y pidiéndole que responda las preguntas del trabajo. Me invade inmediatamente una enorme sensación de frustración, porque es algo que se viene repitiendo en todas las escuelas donde dicto clases. En conversación con otros colegas, ellos también coinciden en que les pasa lo mismo. Así que hoy vengo a hablar de esto: estuve lidiando todo el año con la inteligencia artificial en el aula, y esto es lo que tengo para decir.
La pérdida de agencia
En primer lugar, lo obvio: una gran parte de los chicos usa la IA para todo, sin importar el tipo de actividad. El problema casi siempre es el mismo: frente a una tarea que presenta alguna dificultad, el alumno busca resolver rápido para sacársela de encima. Y el problema se intensifica cuando se trata de estudiantes con menos capacidad de trabajo o que se distraen con facilidad. Esto se agrava si consideramos que el principal distractor en el aula hoy son los propios celulares de los estudiantes.
¿Cuál es el principal problema de esto? La pérdida de agencia de los estudiantes. Los chicos entregan las actividades pero no razonaron, no incorporaron conocimientos ni desarrollaron habilidades o competencias. Termina siendo una suerte de copy-paste del Rincón del Vago, potenciado y más difícil de detectar.
Por supuesto, no es un fenómeno nuevo. Todos tenemos anécdotas de trabajos en grupo donde uno hacía todo y el resto hacía la plancha. O pedirle la tarea al compañero más aplicado. Pero el problema es que la IA vuelve todo este proceso más accesible y tentador. Ahí radica el verdadero problema: la IA elimina la fricción del esfuerzo, ese tiempo de duda, error y corrección que forma parte esencial del aprendizaje. Un estudiante puede escuchar al docente, tomar apuntes y parecer atento, pero el aprendizaje genuino ocurre cuando pone en práctica el conocimiento, cuando se enfrenta a la dificultad, no cuando delega esa experiencia en una máquina.
Un estudiante puede escuchar al docente, tomar apuntes y parecer atento, pero el aprendizaje genuino ocurre cuando pone en práctica el conocimiento.
Otro problema es que los estudiantes que no usan IA temen quedar en desventaja frente a quienes sí lo hacen sin que el docente se percate. Esto genera un clima de trabajo bastante negativo cuando se presentan actividades o propuestas didácticas.
Al final del día, la evaluación tradicional escrita a libro cerrado sigue siendo el último bastión de resistencia contra este tipo de prácticas. El problema es que solo permite medir un cierto tipo de habilidades, competencias y conocimientos. Un buen examen escrito permite medir la comprensión, la memorización y la capacidad de recuperar información, además de la claridad y corrección en la expresión escrita. Pero no logra evaluar dimensiones como el trabajo colaborativo, las habilidades sociales, la argumentación en diálogo o la creatividad en formatos abiertos.
Los exámenes o trabajos a domicilio o con acceso a materiales pueden ofrecer un tipo de evaluación más profunda. Al disponer de tiempo y recursos —libros, apuntes o papers—, el estudiante puede leer, subrayar, contrastar fuentes y construir una comprensión más sólida de los temas. Además, puede favorecer la autonomía y autorregulación del aprendizaje, ya que el alumno debe decidir qué estudiar primero, cómo organizar su trabajo y cómo fundamentar sus respuestas. Un ejemplo de esto es la redacción de ensayos —para que los estudiantes aprendan a escribir en otro formato y mejoren su expresión escrita—, que se vuelve casi imposible de evaluar porque existe una alta probabilidad de que usen los LLM.
Es importante resaltar que no todos los estudiantes se destacan en el mismo tipo de evaluación. Algunos muestran un mejor desempeño en las pruebas escritas, gracias a su capacidad para organizar ideas y expresarse con claridad, mientras que otros se destacan en la argumentación oral o en actividades creativas. Cada instrumento de evaluación mide dimensiones distintas del aprendizaje, y la irrupción de la inteligencia artificial tiende a reducir o distorsionar muchas de ellas.
¿Existen usos positivos?
¿Existen usos positivos de la inteligencia artificial en clase? En mi experiencia, bastante pocos. Una de las situaciones donde funcionó razonablemente bien fue en la preparación de los Modelos de Naciones Unidas. Mis estudiantes de secundaria superior compiten en diversos modelos en universidades de CABA y GBA, y en la preparación de documentos de posición, anteproyectos o materiales de trabajo, la IA fue una herramienta provechosa. Sobre todo cuando interactuaban y razonaban con lo que el modelo les devolvía. Es decir, la usaban como herramienta de búsqueda —por ejemplo, “¿Qué opinión tiene China sobre el conflicto en el Sahel?”— o como corrector de textos.
Ahora bien, cuando la usaban como agente que redactaba desde cero los documentos de posición o los anteproyectos, el resultado era desastroso. Otra vez la pérdida de agencia: el estudiante pedía “preparame el documento de posición sobre el acceso al agua” y luego, al momento de defenderlo en el estrado, quedaba expuesto, porque no sabía qué indicaban sus propuestas. Podía describirlas, pero no apropiarse de ellas.
En conversación con otros colegas, coincidimos en que existen ciertos tipos de actividades —como las que apelan al conocimiento tácito, a la experiencia personal o a la capacidad de razonar con las propias palabras— donde la inteligencia artificial aún no puede reemplazar el pensamiento humano. Particularmente en Historia, mi materia, una estrategia parcial pero efectiva frente al uso indiscriminado de ChatGPT puede ser diseñar consignas que requieran interpretar fuentes, comparar perspectivas o tomar decisiones a partir de evidencias concretas.
Surge una observación interesante: las asignaturas de ciencias exactas parecen verse menos afectadas por el uso de la inteligencia artificial.
En el intercambio con mis estudiantes como con colegas, surge una observación interesante: las asignaturas de ciencias exactas parecen verse menos afectadas por el uso de la inteligencia artificial. La IA, en su estado actual, tiene problemas para resolver cálculos matemáticos complejos. Como lo que se evalúa muchas veces es el procedimiento, los profesores suelen darse cuenta de que se usó inteligencia artificial o que los resultados entregados son, directamente, incorrectos.
Entre los intentos de elaborar una didáctica del uso de la IA existe la llamada lectura distante. Este concepto, acuñado por el teórico italiano Franco Moretti, propone que en lugar de centrarse en una lectura detenida (close reading), se analicen grandes colecciones de textos para observar patrones, tendencias o estructuras comunes. En la práctica, esto implica que los estudiantes pueden usar la IA para ayudarse a leer varios textos y clarificar conceptos mediante preguntas, mapas conceptuales o notas de lectura (por ejemplo, con NotebookLM). En la preparación de lecciones orales, con la intervención constante del docente —sobre todo en cómo formular los prompts y analizar los textos—, la IA funcionó como una herramienta útil para clarificar conceptos y comprender cuestiones más complejas. Pero también con efectos colaterales. Si el estudiante le pide a la IA que resuma un texto, lo lee por encima y no verifica la información, puede terminar repitiendo errores (por las alucinaciones del modelo) o haciendo presentaciones orales muy pobres. O directamente no sabe qué decir.
Esto se agrava porque no todos los estudiantes tienen el mismo interés por las distintas materias. Un estudiante puede tomarse en serio un Modelo de Naciones Unidas porque quiere ganar o evitar pasar vergüenza frente a sus compañeros. Pero no todos sienten lo mismo por Matemática, Literatura o Historia, y está bien que así sea. La escuela debe enseñar múltiples saberes independientemente de los intereses individuales. Sin embargo, en estas situaciones el uso de la IA se vuelve mucho más tentador, sobre todo cuando los estudiantes están bajo estímulos constantes y quieren resolver rápido.
Metáfora y advertencia
Hace poco, en una clase de maestría, mi profesor de Tecnología y Cambio Educativo dijo que la irrupción de la IA es comparable con la del automóvil o la electricidad. A principios del siglo XX había muy poca regulación sobre quién podía conducir, así que era común que chicos de 15 años o menos usaran el auto (y, en consecuencia, que muchos tuvieran accidentes). Creo que la comparación es buena para entender la irrupción de la inteligencia artificial en la escuela. Hoy existe una mirada muy solucionista respecto de la IA en muchos organismos multilaterales (como el Banco Mundial), donde todo se reduce a capacitar docentes, modificar actividades y enseñar el uso de la IA en el aula, como si así se resolvieran los problemas educativos. Esta mirada reduce la educación a variables técnicas y desconoce las complejidades que ocurren en el aula.
En mi opinión, la IA es hoy más un problema que una solución dentro de las aulas. Genera los enormes desafíos que ya conté y existen muchas dudas sobre su real efectividad en el aprendizaje. Así que, Houston: tenemos un problema. Creo que la solución, al menos por ahora, pasa por limitar el uso del celular en el aula (por todos estos problemas y muchos otros que exceden este texto) y permitir que la tecnología se concentre en proyectores, pizarras digitales y otras herramientas que favorezcan un ambiente más propicio para el aprendizaje.
No hace mucho, la ensayista Tamara Tenembaum tuiteó que “una persona que aprende a leer, escribir y entender sin IA ‘utiliza inteligentemente’ la IA en 3 minutos. lo difícil es enseñar a pensar, no a usar una herramienta u otra”. Lo que me lleva a preguntarme: ¿los estudiantes que se destacan en, por ejemplo, los Modelos de Naciones Unidas, no se destacaban ya antes de usar IA, gracias a su propia capacidad de agencia?
Fuente: Seúl - Octubre 2025

