Cuando medir la ciencia termina dañándola: lecciones desde Europa hacia Chile

Compartir

Cuando medir la ciencia termina dañándola: lecciones desde Europa hacia Chile

Cuatro universidades europeas ya no participan del ranking Times Higher Education. Utrecht, Zürich, Lorraine y Sorbonne tomaron esta decisión por razones similares: los rankings dominantes no se alinean con sus compromisos de ciencia abierta y transparencia. Este no es un gesto simbólico. ¡Es una decisión basada en evidencia!

Este no es un gesto simbólico. ¡Es una decisión basada en evidencia!

La investigación muestra que los rankings generan más problemas que soluciones. Fuerzan a las universidades a competir en vez de colaborar. Simplifican instituciones complejas en un solo número. Usan métodos cuestionables que las propias universidades no pueden verificar. Y exigen tiempo institucional considerable para alimentar estos sistemas opacos.

La Universidad de Utrecht lo dice claramente: es imposible capturar la calidad de una universidad con todos sus programas y disciplinas en un número. La evidencia les da la razón. Además, desde enero del 2026, la Universidad incluso ha decidido dejar de comprar el acceso a Web of Science desde Enero del 2026. Esta es una decisión consciente y rigurosamente pensada.

En Chile, Yara Jaffé, investigadora del Centro de Astrofísica y Tecnologías Afines, plantea una conexión que suele ignorarse. Estos sistemas de evaluación no son neutrales. El paradigma de «publish or perish» que sostiene los rankings construye un modelo poco inclusivo de carrera académica. Se centra en productividad inmediata. Privilegia cantidad sobre calidad. Penaliza pausas por maternidad, paternidad o cuidados. El resultado no es solo inequidad de género. El resultado es ciencia empobrecida.

Los números respaldan su argumento. En Chile, incluso en hogares con doble ingreso, las mujeres dedican el doble o triple de horas al cuidado y tareas domésticas. En el mundo académico, donde la evaluación se mide por publicaciones, proyectos y viajes a conferencias, esta asimetría se traduce en desventaja estructural. Menos mujeres alcanzan posiciones de liderazgo científico, no por falta de talento, sino por falta de condiciones equitativas.

Los rankings refuerzan este sistema. Premian outputs medibles a corto plazo. Invisibilizan trayectorias diversas. Reducen la complejidad institucional a métricas que favorecen ciertos perfiles y excluyen otros.

Mientras esto ocurre, el CWTS Leiden Ranking 2025 ofrece una alternativa concreta. Este año lanzaron dos ediciones: la tradicional basada en Web of Science y una edición abierta basada en OpenAlex.

Los números cuentan una historia reveladora. La Universidad de São Paulo tiene 48.926 publicaciones considerando solo revistas internacionales centrales. Cuando se incluyen publicaciones de alcance regional o nacional, ese número salta a 68.889. Un tercio de su producción científica permanecía invisible bajo el enfoque tradicional. Casi una quinta parte de sus publicaciones están en portugués.

Este caso no es único. En Indonesia, Ucrania, Rusia y varios países de África y América Latina, la proporción de publicaciones no centrales es alta. Estas publicaciones reflejan iniciativas locales de acceso abierto como SciELO en América Latina. Representan conocimiento situado, respuestas a problemas locales, investigación en idiomas distintos al inglés.

La edición abierta del Leiden Ranking incluye 2.831 universidades. La edición tradicional cubre 1.594. La diferencia es especialmente marcada en India, Indonesia y Brasil.

Para países como Chile, estas cifras importan. Cuando los sistemas de evaluación se construyen sobre métricas que invisibilizan tipos específicos de producción científica, se generan incentivos perversos. Los investigadores priorizan publicar en revistas indexadas en bases internacionales, aunque su investigación sea más relevante para contextos locales o regionales. Las revistas científicas nacionales pierden financiamiento y prestigio. El conocimiento sobre problemas específicos de nuestros territorios queda subrepresentado.

Y hay otra consecuencia que Jaffé señala: la ciencia se vuelve más rápida, pero menos profunda. Einstein dedicaba tiempo a caminar y reflexionar. Hoy muchos investigadores pasan horas frente al computador, produciendo un artículo tras otro, sin espacio para la reflexión. Preguntas complejas que requieren procesos de aprendizaje extensos e interdisciplinarios quedan sin formularse. En Chile, FONDECYT está comenzando a evaluar por calidad más que cantidad, pero la mayoría de las universidades todavía premia cantidad porque su financiamiento depende del número total de publicaciones.

Sin embargo, falta mucho aún. Aspectos como la «claustreabilidad» —el ser potencialmente parte de un claustro de magíster y/o doctorado— en ámbitos de la investigación se han puntualizado en el uso de métricas basadas en cuartiles de WoS —Web of Science. Esto, en cascada, afecta las carreras académicas de manera profunda, dándole más fuerza al argumento de la Dra. Jaffé.

Este sistema es especialmente problemático cuando enfrentamos áreas tan relevantes como lo son la crisis climática. Necesitamos todos los talentos y todas las perspectivas posibles. Necesitamos pensamiento profundo e interdisciplinario. Esto solo será posible si construimos ecosistemas académicos que valoren diversidad, equidad y análisis profundo. Los rankings actuales nos alejan de ese objetivo.

Hélène Boulanger, presidenta de la Universidad de Lorraine, plantea el punto central: necesitamos datos sobre investigación para monitorear políticas públicas. Pero debemos transitar hacia sistemas abiertos y transparentes.

La Declaración de Barcelona sobre Información Abierta de Investigación ya cuenta con más de 120 organizaciones firmantes. Su compromiso es claro: hacer de la apertura el estándar para la información de investigación que usamos y producimos.

Este no es un debate técnico reservado para especialistas. Es una discusión sobre qué tipo de ciencia queremos y necesitamos. Los rankings opacos concentran recursos y prestigio en instituciones que ya los tienen. Refuerzan modelos de carrera excluyentes. Premian velocidad sobre profundidad.

Los sistemas abiertos permiten evaluar mejor la diversidad de contribuciones científicas a nivel global. Hacen visibles publicaciones que abordan problemas locales. Reconocen investigación en múltiples idiomas. Y, potencialmente, pueden diseñarse para valorar calidad sobre cantidad, trayectorias diversas sobre perfiles únicos.

China presenta solo un bajo porcentaje de publicaciones no centrales en OpenAlex. No porque produzca menos investigación en chino, sino por problemas en la cobertura de revistas en idioma chino en la base de datos. El problema se repite en África y otras regiones. Estos vacíos no son neutrales. Afectan decisiones de política científica.

Las agencias nacionales de ciencia financian investigación. Las universidades contratan y promueven académicos. Los ministerios diseñan políticas. Todas estas decisiones se apoyan en métricas. Si las métricas son parciales, las decisiones también lo serán.

El movimiento hacia sistemas abiertos no resuelve todos los problemas. OpenAlex todavía tiene cobertura incompleta en varias regiones. Los algoritmos para clasificar publicaciones pueden mejorarse. Quedan desafíos metodológicos por resolver. Y la apertura de datos no garantiza automáticamente que se valoren trayectorias diversas o se priorice calidad sobre cantidad.

Pero la dirección es correcta. La apertura permite escrutinio. La transparencia posibilita mejora continua. La inclusión de publicaciones diversas reconoce que la ciencia se produce en múltiples idiomas, formatos y contextos. Y los datos abiertos crean condiciones para diseñar sistemas de evaluación más complejos, que puedan considerar pausas por cuidados, contribuciones interdisciplinarias, impacto local y otras dimensiones que los rankings actuales ignoran.

Para Chile y otros países de América Latina, adoptar sistemas abiertos de evaluación científica tiene implicancias concretas. Permitiría valorar mejor la investigación sobre problemas específicos de la región. Fortalecería revistas científicas nacionales y regionales. Daría visibilidad a contribuciones que hoy quedan en la sombra. Y podría vincularse con políticas que reconozcan el cuidado como parte legítima de la vida académica, como propone Jaffé: licencias parentales igualitarias, fondos que reconozcan períodos de crianza en la evaluación, espacios institucionales para corresponsabilidad.

CWTS ofrece capacitación en cienciometría usando datos abiertos. Han trabajado con Dinamarca en su iniciativa nacional de analítica de investigación abierta. El conocimiento y las herramientas están disponibles.

La pregunta no es si debemos transitar hacia sistemas abiertos. La pregunta es cuándo y cómo lo haremos, y si ese tránsito incluirá también un cuestionamiento profundo de qué valoramos en la ciencia.

Cuatro universidades europeas ya decidieron. Más de 120 organizaciones firmaron la Declaración de Barcelona. El Leiden Ranking Open Edition muestra que es técnicamente posible. Investigadoras como Jaffé están señalando las consecuencias humanas y científicas de continuar con el modelo actual.

Los países que adopten temprano estos sistemas tendrán ventaja. Podrán diseñar políticas científicas basadas en información más completa. Fortalecerán sus ecosistemas de investigación. Y podrán vincular la evaluación científica con objetivos más amplios de equidad, profundidad y relevancia social.

El camino es largo. Los desafíos técnicos persisten. Pero la alternativa es peor: seguir dependiendo de sistemas opacos que distorsionan prioridades, concentran recursos, excluyen talentos y hacen invisible el resultado de muchas investigadoras e investigadores del mundo.

Una ciencia, y en general, producción de conocimiento más lento, más inclusivo y humano no es un lujo. Es una condición necesaria para enfrentar los desafíos del presente. La ciencia abierta no es solo un valor. Es infraestructura sustentable para el desarrollo que requerimos en el mediano y largo plazo.