Tuve un comienzo temprano en la ola de IA generativa en la educación superior: fui uno de los primeros profesores en enseñar escritura publicable en revistas académicas sobre IA generativa y pensamiento crítico, y ahora soy parte de un equipo interdisciplinario en Babson College que piensa en cómo la IA impacta la educación, la industria y la sociedad.
Pero eso no significa que esté totalmente a favor de la IA, ni tampoco en contra de la IA. Estoy por aprender. Como sostenemos mis coautores y yo en un libro de próxima aparición sobre cómo hacer realidad la promesa de la educación superior, incluso las herramientas más poderosas son tan buenas como los entornos de aprendizaje que construimos a su alrededor.
Entonces, ¿cómo es “aprender correctamente” en la era de la inteligencia artificial generativa? Implica mucha experimentación y confiar en los estudiantes como coaprendices cuando no tengo todas las respuestas, mientras me mantengo firmemente comprometido a compartir mi experiencia en escritura, pensamiento crítico y aprendizaje. También espero que confíen en mí lo suficiente como para seguir mi ejemplo y perseverar cuando las cosas se pongan difíciles.
De la esperanza a la tristeza
En los primeros días, navegar por el auge de la IA generativa me parecía más fácil. En la primavera de 2023, por ejemplo, poco después de que ChatGPT se hiciera público, pedí a los estudiantes que lo usaran para investigar sobre su artista musical favorito y luego verificar los resultados como parte de una unidad en mi clase de redes sociales de nivel superior. Las respuestas parecían pulidas y seguras, pero a menudo estaban equivocadas. Las fechas del álbum son mixtas. Los tours se inventan. En un momento, una estudiante levantó las manos y gritó: “¡Están mintiendo! La sala estalló. Las ‘mentiras’ fueron especialmente evidentes con los artistas menos populares y de los que menos se hablaba”. “¿Cómo podría trasladarse a otras áreas del conocimiento?” Yo pregunté. Se apresuraron a pensar qué votos podrían no lograrse en un escenario diferente.
Si bien este fue un comienzo prometedor, en el otoño de 2023 comencé a lamentar la desaparición de un mundo anterior a la IA en todas partes. Me incliné una vez más con mis alumnos, ahora en una clase de redacción de investigaciones de segundo nivel. He incluido una nueva sección obligatoria en sus propuestas llamada “Sé mejor que un robot”. La conclusión es que si ChatGPT puede escribir tu trabajo de investigación, ¿qué sentido tiene dedicar semanas a ello?
Le pregunté: ¿Dónde debería aparecer su propio trabajo (su propio pensamiento humano) para crear una pequeña porción de conocimiento nuevo en el mundo? Hicimos una investigación primaria, utilizamos el tiempo de clase para leer y tomar notas y amplié los plazos para dar cuenta del rigor que estábamos asumiendo.
Se desalentó el uso de inteligencia artificial, pero no se prohibió por completo: si se usaba, se requerían descripciones cuidadosas y explícitas de exactamente cómo, e incluso di ejemplos de cosas como pensar en títulos académicos como una opción potencial. Si bien no todos los proyectos de investigación finales parecían ser enteramente generados por IA, los pocos que sí me dejaron tambaleante, como si fuera culpa mía por no esforzarme más en no usar la IA cuando intentaba ser neutral y entender cómo podemos usarla como una herramienta, no como un reemplazo.
Puntos ciegos cognitivos
Desde aquellos primeros días de 2023, las discusiones sobre el uso de la IA por parte de los estudiantes se han vuelto más tensas y complicadas. No hay respuestas fáciles y existen muchos temores sobre la excesiva dependencia, la pérdida de aprendizaje e incluso el valor de un título universitario. También hay muchas cuestiones éticas que van más allá de la integridad académica, como el impacto de la inteligencia artificial en el medio ambiente y las preocupaciones sobre los datos y la privacidad. Pero el uso de la inteligencia artificial no se está desacelerando.
Datos recientes del Pew Research Center muestran que más de la mitad de los adolescentes están recurriendo a la inteligencia artificial para ayudarles a encontrar información y obtener ayuda con las tareas escolares. Cuando estos estudiantes llegan a mis clases, muchos ya han desarrollado hábitos en torno a estas herramientas, y esos hábitos pueden servir o no para su aprendizaje. Para mí, ese no es un argumento para prohibir la IA en las aulas, sino un argumento para tomarla en serio.
Pero aquí está la verdadera dificultad: cuando los estudiantes usan la IA, a menudo no pueden darse cuenta cuando están provocando un cortocircuito en su pensamiento. Un estudio publicado a finales de 2024 en el British Journal of Educational Technology encontró que los estudiantes que usaban ChatGPT mejoraron sus puntajes en los ensayos en el corto plazo, pero no mostraron ganancias significativas en el conocimiento. Es más, eran propensos a lo que los investigadores llamaron “pereza metacognitiva”, es decir, una dependencia de herramientas que socavaba su capacidad para autorregularse y participar profundamente en el aprendizaje. Este es el resultado de la descarga cognitiva.
Aprendiendo a discernir
En este punto, siento que mi papel está pasando de ser un observador neutral o un compañero de estudios a algo más bien un guía de puntos de vista. Sé cómo es el pensamiento riguroso en mi disciplina. Conozco la diferencia entre un artículo que ha pasado por una verdadera lucha intelectual y uno que ha sido redactado. Mi trabajo es hacer que esa diferencia sea visible para los estudiantes que quizás aún no tengan la experiencia para verla por sí mismos.
Entonces sí, hay momentos en mis cursos de escritura en los que pido a los estudiantes que escriban sin IA. No como una prueba de pureza, aunque pude ver que se usa de esa manera, y no porque crea que seguirán pasando sus carreras evitándola, sino porque comprender primero lo que la IA le hace a tu pensamiento requiere saber qué puede hacer tu pensamiento sin ella.
Esto es especialmente importante ahora porque muchos de los estudiantes que conozco llegan ya ansiosos, ya trabajando, ya optimizando para la calificación y no para aprender. Muchos han pasado años aprendiendo a dar la respuesta correcta en lugar de luchar con preguntas difíciles. Antes de que puedan desarrollar discernimiento sobre cualquier herramienta, necesitan algo más fundamental: un sentido de que su propio pensamiento es digno de confianza.
En la práctica, esto equivale a redactar con y sin IA, comparar versiones y pedir que justifiquen la elección en voz alta. Parece que notas cuando una herramienta acelera el trabajo rutinario y cuando reduce la complejidad.
Como muchos profesores que atraviesan este momento, me encuentro en lo que los profesores de la Universidad de Auburn, Christopher Basgier y Lydia Wilkes, describen como un “entorno desordenado”, uno que ni abraza ni rechaza plenamente la tecnología, pero que hace el incómodo trabajo de interactuar críticamente con ella. He descubierto que mis alumnos a menudo terminan en una versión de ese mismo espacio inseguro. Aprender a aceptar esa incertidumbre, a tolerar la lentitud y la confusión de pensar las cosas detenidamente en lugar de buscar una respuesta sin inmutarse, es donde comienza el discernimiento.
Si los estudiantes van a seguir encontrando estas herramientas a lo largo de sus vidas, entonces ignorar esa realidad no les está haciendo un favor. Mi responsabilidad es ayudarlos a desarrollar el juicio necesario para decidir cuándo un atajo es estratégico y cuándo socava su propio pensamiento. Es un aprendizaje profesional.
Descubre más desde USA TODAY NEWS INDEPENDENT PRESS US
Suscríbete y recibe las últimas entradas en tu correo electrónico.


