¿Cómo se mide la calidad de los investigadores? Imaginemos la siguiente situación: dos investigadores presentan su candidatura a un ascenso en la universidad. El primero publicó doce artículos en tres años. La mayoría aparece en revistas indexadas en bases de datos internacionales que seleccionan las publicaciones según criterios de calidad editorial. Otro dedicó cinco años a un proyecto complejo y recibió una residencia de investigación. Produjo menos artículos, pero generó datos que fueron reutilizados por otros grupos y capacitó a varios estudiantes de doctorado. Parte de su trabajo tuvo un impacto directo en las políticas públicas.
Cuando el comité tiene que decidir quién tiene el mejor historial científico, ¿qué es más difícil? En muchos sistemas universitarios, la respuesta depende del número de publicaciones, del factor de impacto (un índice que calcula cuántas veces, de media, se citan los artículos de una revista durante un determinado periodo), de la posición de la firma del autor (por orden de la firma del artículo científico) o de las citas acumuladas (cuántas veces se citan sus artículos).
Además: ¿Cuánto cuesta estudiar como investigador en España? demasiado que perder
Estas métricas le permiten clasificar rápidamente a los candidatos. Sin embargo, su objetivo es describir patrones agregados de producción académica, es decir, tendencias generales sobre cómo, cuánto y dónde publica la comunidad académica en su conjunto: volumen de artículos, tasas de crecimiento, colaboración entre países o campos y circulación de citas.
No están diseñados para reemplazar el juicio cualitativo sobre las trayectorias individuales, que requiere una evaluación de la originalidad, la solidez metodológica, la capacidad de liderazgo y la contribución real al avance del conocimiento.
La calificación no cuenta
Durante las últimas décadas se ha consolidado en la universidad un principio: la calidad científica de un investigador depende del número de publicaciones en revistas consideradas de alto impacto y del volumen de citaciones recibidas. Resumido en el principio que marcó a generaciones de investigadores, “publicar o fracasar”, este enfoque cuantitativo significó que cuanto mayor fuera el número de artículos o ponencias en un corto período de tiempo, mayor sería la posibilidad de lograr el reconocimiento académico en la universidad.
Al no ser tan fácil cuantificarlos, se suprimió la trayectoria profesional de largo plazo, el impacto social del conocimiento y la integridad científica, al tiempo que se promovieron dinámicas encaminadas a maximizar la presencia “cuantificada” en las revistas académicas, como la fragmentación de una misma investigación en varios artículos (slicing the salami), duplicar el contenido del trabajo con un aumento del número de traducciones públicas o traducirlo.
A lire aussie: La trampa financiera de la ciencia abierta
Desde principios de la década de 2010, las críticas a este modelo de evaluación provienen de la propia comunidad científica. En 2012 se publicó la Declaración de San Francisco sobre Evaluación de la Investigación (DORA), que cuestionaba el uso de factores de impacto como criterio para evaluar a los investigadores. En 2015 se publicó el Manifiesto de Leiden, con diez principios para el uso responsable de los indicadores. Posteriormente, en 2022, se creó la Coalición para el Avance de la Evaluación de la Investigación, que promueve reformas estructurales en los sistemas de evaluación.
Estas iniciativas se complementan con los Principios de Hong Kong y la Declaración de Singapur sobre Integridad en la Investigación. Todos señalaron las limitaciones de este sistema y la necesidad de prestar más atención al contenido, la integridad y la contribución cualitativa de la investigación.
Burocratización de la promoción universitaria
En España, los organismos oficiales de acreditación y evaluación han avanzado, en línea con la normativa europea sobre reforma de la investigación. Sin embargo, internamente, en muchas universidades, cuando se busca avanzar, gana la persona que tiene más puntos, y los méritos se fragmentan en partes independientes que no permiten evaluar cualitativamente una carrera. La calidad de la investigación tiende a identificarse con lo que es más fácil de contar, y la evaluación se convierte en un proceso burocrático en el que, por ejemplo, el uso de plantillas fijas impide el reconocimiento de méritos relevantes porque no encajan en un cuadro particular.
Esto afecta a cómo los propios investigadores definen sus prioridades, condicionan los ritmos de trabajo y crean presiones estructurales. También aumenta el riesgo de incurrir en malas prácticas. Algunos investigadores recurren a revistas depredadoras que prometen publicaciones rápidas a cambio de tarifas elevadas (APC), sin procesos reales de revisión externa.
Falta de transparencia
La falta de transparencia dificulta este escenario. Los criterios no siempre se conocen de antemano ni se explican claramente. La comunidad universitaria apenas participa en su definición o revisión. En términos de gobernanza interna, no existen salvaguardias suficientes contra conflictos de intereses, dinámicas endogámicas o valoraciones difíciles de verificar.
Cuando se presentan denuncias es habitual que el silencio administrativo se presente de forma negativa. También en casos de controversia posterior a la decisión final. Esta situación crea impotencia jurídica y debilita la confianza en el sistema de evaluación.
Currículo narrativo y evaluación responsable
Una alternativa a este sistema cuantitativo es el currículo narrativo, una herramienta de evaluación más contextualizada. Su finalidad es posibilitar una lectura cualitativa de la trayectoria investigativa y situar los méritos en su contexto actual.
El currículo narrativo se articula a partir de perfiles académicos definidos y un número limitado de aportes relevantes. Este formato nos permite evaluar dimensiones que rara vez encajan en plantillas rígidas: liderazgo científico, formación de equipos, ciencia abierta, colaboración interdisciplinar, impacto social, responsabilidad en la gestión de datos o promoción de buenas prácticas.
La experiencia de los Países Bajos muestra que este enfoque se puede aplicar de manera consistente al definir perfiles académicos, limitando el número de contribuciones a evaluar e invirtiendo en la formación de comités. Esta práctica, efectivamente integrada, previene conflictos de intereses y se ve reforzada por mecanismos de auditoría externa.
Cómo la evaluación define el modelo universitario
El sistema de evaluación influye en qué temas reciben atención, qué proyectos se consideran viables y qué riesgos intelectuales se asumen. Si se recompensa la productividad inmediata, se favorecen los resultados rápidos y fragmentados. Reconocer la coherencia a largo plazo y la integridad científica fomenta una investigación más sólida y socialmente relevante.
Muchas universidades europeas se han comprometido formalmente con la Comisión Europea a través del sello de la Estrategia de Recursos Humanos para los Investigadores, que exige el respeto de los principios de la Carta Europea del Investigador: evaluación transparente, criterios claros, ausencia de conflictos de intereses y procedimientos verificables. Además, requiere auditorías, planes de acción y seguimiento periódico.
Impacto en la calidad del conocimiento.
La forma en que se evalúa a los investigadores no es un detalle administrativo. Cada criterio de evaluación envía un mensaje claro desde la institución: esto es lo que valoramos, esto es lo que cuenta.
Este gesto define qué tipo de universidad se quiere construir y qué modelo de ciencia se considera valioso. Y de esa elección depende, además de la credibilidad de la institución, la calidad del conocimiento que se transmite a la sociedad.
Descubre más desde USA TODAY NEWS INDEPENDENT PRESS US
Suscríbete y recibe las últimas entradas en tu correo electrónico.


