La adopción masiva y acrítica de la inteligencia artificial generativa (GAI), con grandes modelos de lenguaje como ChatGPT y similares, puede degradar la experiencia universitaria y socavar la misión de la universidad. Si bien esta tecnología ofrece aplicaciones interesantes, cuando se utiliza sin reflexión ni ajuste pedagógico, nuevos estudios muestran que tiende a vaciar el aprendizaje de contenidos, hacer inseguro el trabajo académico y reforzar las desigualdades y las formas de control.
De la innovación al deleite
Los IAG se introducen en la enseñanza con la promesa de personalizar el aprendizaje y aumentar la eficiencia, pero pueden terminar homogeneizando tareas y evaluaciones y degradando la experiencia pedagógica. Ya hay indicios de que AIG está haciendo suficientes –pero no muy bien– patrones repetitivos y evaluaciones de rutina que alientan a ajustarse al formato en lugar de pensar.
AIG se comercializa ante las universidades como una herramienta capaz de personalizar la evaluación, ahorrando tiempo al analizar miles de textos y generar comentarios instantáneos. Sin embargo, en la práctica tienden a favorecer estructuras estandarizadas (introducción – tres argumentos – conclusión, frases cortas, vocabulario neutro). Al mismo tiempo, penalizan estilos más complejos, creativos o arriesgados porque sus modelos se entrenan utilizando textos convencionales.
Como consecuencia, los estudiantes aprenden qué tipo de escritura le gusta al sistema y adaptan su trabajo para maximizar su producción, incluso si eso significa empobrecer el contenido y evitar posiciones originales. Es decir, la tecnología presentada como personalización termina homogeneizando tareas, estandarizando la evaluación y fomentando la escritura automática.
El concepto de ensitificación, acuñado por el periodista tecnológico Cory Doctorow a partir de la palabra anglosajona crap (“mierda”), ayuda a comprender: al principio la tecnología parece aportar valor, pero poco a poco su funcionamiento se orienta hacia las métricas, la extracción de datos y la dependencia de proveedores, de modo que sirve a intereses corporativos más que pedagógicos.
Así, las aulas digitales se convierten en espacios saturados de una automatización mediocre, donde se enseña, sobre todo, a generar instrucciones efectivas y contenidos que puedan seguirse.
Deterioros cognitivos
El uso intensivo de IAG para generar tareas puede desencadenar el proceso de externalización y deuda cognitiva. Algunos estudios han relacionado un mayor uso de IAG con un deterioro del pensamiento crítico. Su uso continuado para la redacción de ensayos podría reducir el compromiso cognitivo y generar un peor rendimiento a nivel neuronal, aunque la tarea se perciba como más fluida y sencilla.
Así nace el concepto de chat, contracción de “universidad” y “chatbot” en inglés: el objetivo deja de ser comprender el mundo y pasa a ser cumplir plazos y crear rápidamente textos fiables. Esta dinámica puede socavar la tolerancia a la ambigüedad y el esfuerzo intelectual sostenido, pilares de la educación emancipadora, y debilitar los hábitos de verificación, lectura profunda y discusión razonada.
Creatividad domesticada
IAG trabaja recombinando datos históricos que reflejan una sociedad imperfecta, por lo que tiende a reforzar patrones dominantes, prejuicios y cánones consolidados, en lugar de promover rupturas o perspectivas minoritarias. Esto se traduce en textos pulidos pero conformistas, poco abiertos a imaginar soluciones radicales o epistemologías centralizadoras feministas, decoloniales o globales.
De manera relacionada, la IA parece aumentar la creatividad percibida pero limita la variedad de historias producidas. Además, AIG recomienda menos obras de mujeres y reproduce la jerarquía de género en la visibilidad de la autoría.
De esta manera, los sistemas educativos basados en inteligencia artificial incluyen supuestos normativos que tienden a privilegiar perfiles y conocimientos hegemónicos, mientras que su uso acrítico en la enseñanza puede reforzar exclusiones. Del mismo modo, la UNESCO constata que las IAG en educación tienden a invisibilizar el trabajo de las autoras y a reforzar los estereotipos, lo que alimenta una ecología del conocimiento menos plural.
Cuando profesores y estudiantes lo utilizan para seleccionar lecturas y generar casos, el sesgo de datos se cuela en la selección de referencias y voces. Por tanto, se corre el riesgo de profundizar la invisibilidad de autores, disciplinas críticas y comunidades marginadas, normalizando una universidad más homogénea.
Autoría de fantasmas
Escribir artículos, resolver problemas, escribir código y crear comentarios con esta tecnología también desafía lo que significa ser autor. Si una parte importante del trabajo es realizado por máquinas, los títulos universitarios pueden convertirse en credenciales baratas, cada vez menos vinculadas al esfuerzo intelectual de quienes los obtienen.
Para evitar esto, muchas instituciones recurren a sistemas de monitoreo y detectores de IA discriminatorios y poco confiables que pueden generar falsos positivos y afectar a los estudiantes que escriben en un idioma diferente o en estilos no normativos. Esto puede erosionar la confianza entre docentes y estudiantes, en lugar de fortalecer la rendición de cuentas, la integridad y el apoyo.
Extractivismo de datos
Otra preocupación es política y económica: vemos que algunas universidades norteamericanas se convierten en proveedores de datos, legitimidad y usuarios cautivos para grandes empresas de inteligencia artificial, a menudo a través de contratos opacos. Comportamientos, contenidos de los cursos y tareas se utilizan como materia prima para modelos de formación, con cláusulas de uso no selectivas o cuyo consentimiento es difícil de obtener, lo que debilita la autonomía académica.
Además, el mantenimiento de estos sistemas depende de cadenas de trabajo precario en el Sur Global (etiquetado de datos, moderación del contenido traumático) y daños ambientales. Mientras tanto, en el Norte global, los recortes de personal y los cierres de programas se justifican en nombre de la modernización. En este escenario, la universidad corre el riesgo de reconfigurarse como un nodo de distribución y formación de infraestructuras corporativas, lo que desvía recursos de la enseñanza y el empleo estable hacia la financiación de plataformas privadas.
Erosión de la misión democrática
Por otro lado, los chatbots y asistentes de inteligencia artificial que apoyan el aprendizaje también pueden provocar adicción emocional, incluso situaciones extremas de autolesión. Para los estudiantes vulnerables, el acoso, las respuestas inapropiadas y la falta de una evaluación de riesgos confiable pueden exacerbar la soledad y retrasar el acceso a ayuda profesional.
A nivel epistemológico y democrático, la expansión de los contenidos sintéticos, las culturas posalfabetizadas (hojeando, centrando las habilidades en la creación de resúmenes e instrucciones) y la dependencia de infraestructuras cerradas pueden socavar la capacidad de la universidad para ser un espacio de reflexión crítica.
Tengamos en cuenta que, en algunos casos, los acuerdos con los proveedores de IA se cierran a veces sin la participación de estudiantes, sindicatos y docentes, mientras que se excluyen los campos más capaces de cuestionar estos procesos, como los estudios de género, la filosofía o los estudios críticos de los medios.
¿Qué hacer desde la universidad?
No se trata de desterrar al IAG de la universidad, sino de subordinarlo a un proyecto centrado en el pensamiento crítico, la creatividad y la igualdad. Esto implica al menos tres cosas:
Fortalecer la alfabetización digital crítica y trabajar sobre la desinformación, los sesgos, las limitaciones y las formas de respuesta a los resultados de la IA en todos los niveles educativos.
Desarrollar marcos de gobernanza para los sistemas de IA basados en los derechos fundamentales, la transparencia, la participación y la rendición de cuentas, especialmente en usos de alto riesgo como la evaluación o el apoyo psicológico.
Proteger y financiar disciplinas y pedagogías que apoyen la lectura profunda, la creatividad, la imaginación política y perspectivas alternativas. Se trata de resistir la tendencia a entender la universidad como una fábrica de credenciales optimizadas para plataformas.
Hay pruebas de que el uso indebido de IAG en las universidades puede causar daños que van más allá del plagio: IAG puede reconfigurar lo que significa aprender, enseñar e investigar. Esto nos obliga a decidir si las instituciones obedecerán la lógica corporativa de la ensitificación o transformarán esta tecnología a partir de un compromiso con la justicia.
Descubre más desde USA TODAY NEWS INDEPENDENT PRESS US
Suscríbete y recibe las últimas entradas en tu correo electrónico.


