martes, 25 de noviembre de 2025

Para reformar las universidades, primero hay que enfrentar a los rankings mundiales

Publicado en Nature
https://www.nature.com/articles/d41586-025-03636-x



Para reformar las universidades, primero hay que abordar las clasificaciones (rankings) mundiales


Las universidades están sometidas a un sistema de clasificación que da prioridad a aspectos limitados de la vida académica. Tres cambios darían a las instituciones la libertad de explorar nuevas formas de trabajar.


Por Elizabeth Gadd


La reputación y las finanzas de las universidades suelen depender de su posición en las tablas de clasificación mundiales. Los estudiantes utilizan las clasificaciones  (rankings) para identificar rápidamente el mejor lugar para estudiar o, al menos, el que podría ser percibido como el mejor por cualquier futuro empleador. Incluso un pequeño cambio en la clasificación  (ranking) puede afectar al número de estudiantes que solicitan plaza en una universidad, lo que altera los ingresos procedentes de las tasas de matrícula (R.-D. Baltaru et al. Stud. High. Educ. 47, 2323-2335; 2022). 


Y a los gobiernos les encanta la simplicidad de las clasificaciones (rankings). Muchos financiarán los estudios en el extranjero de sus ciudadanos solo en instituciones que ocupen los primeros puestos de las listas. Las iniciativas de inversión nacional, como el proyecto 5-100 Academic Excellence de Rusia y el proyecto Top Global University de Japón, suelen centrarse en universidades que tienen posibilidades de situarse en los primeros puestos de las clasificaciones (rankings). El Gobierno del Reino Unido solo ofrece sus visados para personas con alto potencial a candidatos que hayan estudiado en universidades de alto nivel.


Esta dependencia de las clasificaciones (rankings) significa que las universidades no se configuran en función de las necesidades de la sociedad o de las innovaciones impulsadas desde dentro de la comunidad internacional de educación superior, sino por agencias de clasificación (rankings) externas no designadas.


Los indicadores utilizados por algunas de las clasificaciones (rankings) más importantes no reflejan todas las cualidades y funciones de las instituciones de educación superior. Cada agencia utiliza un método de clasificación ligeramente diferente, pero todas suelen centrarse en una gama limitada de criterios. Estos se basan en gran medida en medidas relacionadas con las publicaciones, como las citas, y en encuestas de reputación.


La consecuencia es que la mayoría de las universidades del mundo tienden a perseguir un tipo de «excelencia» que se asemeja bastante a la de las instituciones antiguas, ricas, conservadoras e intensivas en investigación de los países con altos ingresos. 

 

Mientras tanto, las universidades se enfrentan a una serie de problemas, desde la disminución de la financiación pública y la confianza, hasta la pérdida de relevancia de los planes de estudios en un mercado laboral en rápida evolución y la necesidad de demostrar el impacto real de la investigación. No faltan ideas sobre cómo reformar las universidades para responder a estos retos, pero el predominio de las clasificaciones (rankings) como medida del éxito institucional hace que las universidades carezcan de incentivos para intentarlo. Muchos temen que alejarse del statu quo pueda provocar una caída en las tablas, lo que les dificultaría atraer financiación y talento.


Las comunidades académicas y las universidades deben impulsar el cambio. A continuación, describo cómo.


Un sistema defectuoso


En mi opinión, las principales clasificaciones (rankings) mundiales dependen en exceso de las fuentes de datos a las que tienen fácil acceso: datos de publicaciones o datos de encuestas que recopilan ellos mismos. (El Nature Index, elaborado por Springer Nature, clasifica las universidades únicamente en función de sus contribuciones a artículos de investigación publicados en revistas de ciencias naturales y ciencias de la salud). En muchas clasificaciones (rankings), las evaluaciones de la enseñanza se basan en indicadores poco fiables, como la proporción entre el número de profesores y el de alumnos o el número de antiguos alumnos galardonados con el premio Nobel. La mayoría de las clasificaciones (rankings) otorgan poca o ninguna importancia a las prácticas de ciencia abierta, el impacto social, la divulgación o los esfuerzos por mejorar la diversidad, la equidad y la inclusión. 


Los indicadores de clasificación (rankings) también se ponderan de diversas maneras sin una justificación clara. Por ejemplo, una clasificación puede asignar una ponderación del 20 % a las citas que involucran a miembros del cuerpo docente y solo un 5 % a los resultados de empleo. Las clasificaciones (rankings) también se presentan sin barras de error, a pesar de que los datos utilizados son imperfectos.


Los esfuerzos por rechazar las formas de evaluación limitadas y dominadas por las publicaciones han recaído principalmente en las universidades, a las que se les ha exigido que cambien la forma en que evalúan a su personal y sus departamentos. Muchas universidades han aceptado el reto. Los currículos narrativos y las biografías —relatos escritos por los investigadores que destacan toda la gama de sus contribuciones— son cada vez más comunes. En las universidades europeas se está extendiendo el desarrollo de plantillas para obtener pruebas de una gama más amplia de contribuciones de los miembros del cuerpo docente, conocidas como matrices de evaluación de la carrera profesional.


Pero hay un límite en cuanto a lo lejos que pueden alejarse las instituciones de las evaluaciones basadas en citas y publicaciones, si siguen siendo juzgadas por estas medidas en los rankings universitarios mundiales.


En los últimos tres años, varios grupos, entre ellos la Unión de Estudiantes de Irlanda y el grupo de expertos de la Universidad de las Naciones Unidas, el Instituto Internacional para la Salud Global, han hecho un llamamiento a las universidades para que escapen de este yugo. Han pedido a las instituciones que dejen de proporcionar datos a los rankings, lo que han hecho algunas, como la Universidad de Utrecht en los Países Bajos y la Universidad de Zúrich en Suiza. Además, los grupos han pedido a las universidades que dejen de promocionar su clasificación y que reduzcan la importancia que conceden a las clasificaciones (rankings) de la institución anterior de una persona a la hora de tomar decisiones, como la contratación de personal. Los grupos también respaldan la iniciativa More Than Our Rank, que anima a las instituciones a describir sus numerosos logros, actividades y aspiraciones que no reflejan las clasificaciones (rankings), mediante una declaración narrativa en sus páginas web. (Presido el Grupo de Evaluación de la Investigación de INORMS, que desarrolló la iniciativa More Than Our Rank).  


Se trata de recomendaciones válidas, pero pedir a las universidades que asuman la responsabilidad no conducirá a reformas globales en la forma en que se define y evalúa el rendimiento universitario. Para lograrlo, se necesita una solución triple.


Denunciar las clasificaciones (rankings) actuales


El sector de la educación superior debería acordar de forma colectiva —y clara— que las clasificaciones (rankings) actuales no son adecuadas para su propósito. Puede parecer poco probable que las instituciones que actualmente ocupan los primeros puestos de las clasificaciones (rankings), situadas en su mayoría en Europa y Estados Unidos, critiquen un sistema que les beneficia. Sin embargo, los cambios geopolíticos deberían dar que pensar. Las universidades chinas e indias están ocupando más puestos destacados en las clasificaciones (rankings) que antes, mientras que las instituciones del Reino Unido, Estados Unidos y Australia están en declive. Si las que actualmente ocupan los primeros puestos esperan demasiado para pronunciarse, pronto podrían encontrarse en puestos más bajos, con menos influencia para impulsar las reformas que beneficiarían a todas las instituciones.


El llamamiento al cambio debería incluir una campaña educativa dirigida a los estudiantes y a los responsables políticos, que se basan en las clasificaciones (rankings) para tomar decisiones. Esta campaña debería estar dirigida por un organismo independiente gobernado por expertos del sector de la educación superior internacional, muchos de los cuales ya han expresado su preocupación por los perjuicios de las clasificaciones (rankings) universitarias mundiales (véase, por ejemplo, go.nature.com/4hy1kq9 ). El objetivo debería ser ayudar a los consumidores de las clasificaciones (rankings) a comprender que «¿Cuál es la mejor universidad del mundo?» no es una pregunta útil. «¿Qué universidad podría ser la mejor para mí, teniendo en cuenta que me interesan X e Y?» es una pregunta mejor, pero para la que es poco probable que las medidas actuales proporcionen una buena respuesta.


La campaña debe tener en cuenta que las buenas evaluaciones deben ser matizadas y contextualizadas, y que llevará tiempo asimilarlas. Del mismo modo que no se puede identificar al «mejor» investigador por una sola cifra que compone su índice h, tampoco se puede determinar cuál es la «mejor» universidad por una sola cifra que compone su clasificación (rankings). Puede que este mensaje no sea muy popular, pero es fundamental.


Recopilar mejores datos


El rechazo a las clasificaciones (rankings) no debe confundirse con el rechazo a los datos de calidad, ni considerarse una excusa para eludir la responsabilidad. Existe una necesidad apremiante de recopilar mejores pruebas sobre una amplia gama de actividades universitarias, desde la integridad de la investigación hasta la sostenibilidad y el impacto social. Esto ayudará a los responsables de la toma de decisiones, desde los estudiantes hasta los gobiernos, a obtener mejores respuestas a sus preguntas sobre las actividades comparativas de las universidades mundiales.


Las iniciativas de recopilación de datos deben ser diseñadas, reguladas y gestionadas por candidatos independientes y sin ánimo de lucro del sector de la educación superior. Debe nombrarse una comisión internacional, en la que participen representantes de todas las partes interesadas del sector universitario, para acordar los datos que permitirán a los responsables políticos tomar decisiones sin depender de las clasificaciones (rankings) comerciales. 


Varias agencias internacionales, como la Organización para la Cooperación y el Desarrollo Económicos, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) y la Asociación Internacional de Universidades, ya recopilan datos sobre la educación terciaria, incluyendo el número de ciudadanos matriculados y el número de proveedores. Estas agencias estarían en una posición idónea para recopilar datos más amplios.


Reformar los rankings


En respuesta al activismo comunitario y con mejores datos en sus manos, las agencias de clasificación deberían mejorar sus ofertas para poder dar mejores respuestas a las mejores preguntas que les hacen sus usuarios finales. Las reformas deberían incluir los siguientes cinco cambios clave.


En primer lugar, eliminar las clasificaciones (rankings) emblemáticas que pretenden identificar las «mejores» universidades del mundo, o renombrarlas como clasificaciones de instituciones «intensivas en investigación» cuando no sea así. Darles la misma importancia que a otras clasificaciones. Esto desmentiría el mito de que el modelo intensivo en investigación es la única forma de triunfar como universidad.


En segundo lugar, incluir todas las universidades. Si una institución no dispone de datos fiables suficientes, darle la oportunidad de proporcionar una declaración narrativa en la línea de la ofrecida por More Than Our Rank. Esto marcará el inicio de la transición desde un mundo de «clasificables» y «no clasificables».


En tercer lugar, clasificar las universidades en grupos, no en rangos. Dado el inevitable error de medición en los datos utilizados para alimentar las clasificaciones, agrupar a las instituciones en alta, media o baja en cualquier categoría dada es más justo que dar la falsa impresión de que una universidad clasificada en el puesto 100 es significativamente diferente a una clasificada en el 101. 


En cuarto lugar, proporcionar perfiles, no clasificaciones. No hay mucha justificación para dar diferentes ponderaciones a cada elemento de la clasificación —por ejemplo, contar la investigación y el descubrimiento como el 50 % de la clasificación total y la experiencia de aprendizaje como el 10 %— cuando los usuarios finales pueden valorarlos de manera diferente. Al dar la misma ponderación a todos los elementos de datos y organizarlos como un perfil, los responsables de la toma de decisiones pueden ver más claramente las fortalezas relativas de las universidades y evitar clasificaciones reduccionistas.


En quinto lugar, proporcionar pruebas cualitativas que respalden los datos cuantitativos. Sería fácil y útil vincular las clasificaciones (rankings) basadas en datos con el complemento cualitativo proporcionado por las instituciones. Esto ya es una práctica habitual en la clasificación CWTS Leiden Ranking.


Las universidades y sus asociaciones deberían aprovechar su poderoso papel como consumidores de datos de clasificación para exigir mejoras. Esto liberaría a las universidades para responder a las necesidades de las sociedades a las que sirven y convertirse en instituciones preparadas para el futuro.  



///////////////////////////////////




  • COMMENT

  • 12 November 2025

To reform universities, first tackle global rankings

Universities are in thrall to a rankings system that prioritizes narrow aspects of academic life. Three changes would give institutions the freedom to explore fresh ways of working.

By Elizabeth Gadd


University reputations and finances often hinge on their position in global ranking tables. Students use rankings to quickly identify the best place to study — or, at least, what might be perceived to be the best by any future employer. Even a small shift in rank can affect how many students apply to a university, altering the income from tuition fees (R.-D. Baltaru et al. Stud. High. Educ. 47, 2323–2335; 2022).   

And governments love the simplicity of rankings. Many will fund their citizens’ overseas study only at institutions that are high up the listings. National investment initiatives — such as Russia’s 5-100 Academic Excellence project and Japan’s Top Global University project — often focus on universities that have a chance of making it into the upper echelons of the rankings. The UK government offers its High Potential Individual visas only to candidates who have studied at highly ranked universities.

Such reliance on rankings means that universities are shaped not by the needs of society or by innovations driven from inside the international higher-education community, but by unappointed third-party ranking agencies.  

The indicators used by some of the dominant flagship rankings don’t capture the full range of qualities and functions of higher-education institutions. Each agency uses a slightly different ranking method, but all typically focus on a narrow range of criteria. These are centred heavily on publication-based measures, such as citations, and on reputation surveys.

The consequence is that most of the world’s universities tend to pursue one flavour of ‘excellence’, which looks rather like the old, wealthy, conservative, research-intensive institutions of high-income nations.   

Meanwhile, universities are facing a series of problems — from diminishing public funding and trust, to decreasing curriculum relevance in a rapidly changing job market and the need to demonstrate real-world impact from research. There is no shortage of ideas about how to reshape universities in response to these challenges, but the dominance of rankings as a measure of institutional success means that universities lack incentives to try. Many fear that stepping away from the status quo might result in a drop down the tables, making it harder for them to attract funding and talent.

Scholarly communities and universities must push for change. Here, I outline how.

A flawed system  

In my view, flagship global rankings over-rely on the data sources that they have easy access to: publication data or survey data that they collect themselves. (The Nature Index, produced by Springer Nature, ranks universities solely using contributions to research articles published in natural-science and health-science journals.) In many rankings, evaluations of teaching are based on flimsy proxies, such as staff-to-student ratios or the number of alumni with Nobel prizes. Most rankings place little to no weight on open-science practices, societal impacts, outreach or efforts to improve diversity, equity and inclusion.  

Ranking indicators are also weighted in a variety of ways without clear justification. For example, a ranking might allocate a 20% weighting to citations involving faculty members and only 5% to employment outcomes. Rankings are also presented without error bars, even though the data used are imperfect.

Efforts to push back on narrow, publication-dominant forms of assessment have mostly put the onus on universities to change how they evaluate their staff and departments. Many universities have risen to the challenge. Narrative CVs and biosketches — accounts written by researchers that highlight the full range of their contributions — are becoming more common. In European universities, the development of templates to elicit evidence of a broader range of contributions from faculty members, known as Career Assessment Matrices, is expanding.  

But there is a limit to how far institutions can move away from citation- and publication-based assessments, if they continue to be judged on these measures by global university rankings.

In the past three years, several groups, including the Union of Students in Ireland and the United Nations University think tank, the International Institute for Global Health, have appealed for universities to escape this stranglehold. They have called on institutions to stop supplying data to the rankings, which some, such as the University of Utrecht in the Netherlands and the University of Zurich, Switzerland, have done. And the groups have asked universities to stop promoting their rank and to reduce how much they consider rankings of someone’s previous institution when making decisions, such as which staff members to recruit. The groups also endorse the More Than Our Rank initiative, which encourages institutions to describe their many achievements, activities and aspirations not captured by the rankings, through a narrative statement on their web pages. (I chair the INORMS Research Evaluation Group, which developed the More Than Our Rank initiative.)  

These are valid recommendations, but asking individual universities to take responsibility will not lead to global reforms in how university performance is defined and assessed. To achieve this, a three-pronged solution is needed.

Call out current rankings 

The higher-education sector should collectively — and vocally — agree that the current rankings are not fit for purpose. It might seem unlikely that institutes currently at the top of the rankings, mostly located in Europe and the United States, would call out a system that benefits them. But geopolitical changes should give pause for thought. Chinese and Indian universities are taking more of the top spots in the rankings than before, with UK, US and Australian institutions in decline. If those currently at the top wait too long to speak out, they might soon find themselves lower down the ranks, with less clout to drive the reforms that would serve all institutions.   

The call for change should involve an education campaign aimed at students and policymakers, who rely on rankings for decision-making. This should be led by an independent body that is governed by experts from the international higher-education sector, many of whom have already expressed concern about the harms of global university rankings (see, for example, go.nature.com/4hy1kq9). The goal should be to help consumers of rankings to understand that ‘Which is the best university in the world?’ is not a useful question. ‘Which university might be best for me, given that I care about X and Y?’ is a better question — but one for which current measures are unlikely to provide a good answer.  

The campaign should note that good assessments need to be nuanced and contextualized, and will take time to digest. Just as ‘the best’ researcher cannot be identified by the single number that makes up their h-index, ‘the best’ university cannot be determined by the single number that makes up their rank. This message might not be popular, but it is a crucial one.

Gather better data  

A distaste for rankings should not be confused with a distaste for quality data, or be seen as an excuse to avoid accountability. There’s a pressing need to collate better evidence on a broad range of university activities, from research integrity to sustainability and societal impacts. This will help decision makers — from students to governments — to get better answers to their questions about the comparative activities of global universities.

Data-collection efforts should be devised, governed and run by independent, non-profit nominees of the higher-education sector. An international commission, involving representatives from all stakeholders of the university sector, should be appointed to agree on the data points that will enable policymakers to make decisions without relying on commercial rankings.  

Several global agencies, such as the Organisation for Economic Co-operation and Development, the UN cultural organization UNESCO and the International Association of Universities, already collate data on tertiary education — including the number of citizens enrolled and the number of providers. These agencies would be well placed to collect broader data.

Reform rankings 

In response to community activism and with better data in hand, ranking agencies should improve their offerings so that they can provide better answers to better questions posed by their end users. Reforms should include the following five key changes.

First, remove flagship rankings that claim to identify the world’s ‘top’ universities, or rebrand them as ratings of ‘research intensive’ institutions where that is not already the case. Give them equal billing alongside a range of other rankings. This would debunk the myth that the research-intensive model is the only way to win at being a university.  

Second, include every university. If an institution doesn’t have enough reliable data, give them an opportunity to provide a narrative statement along the lines offered by More Than Our Rank. This will begin the transition away from a world of ‘rankables’ and ‘unrankables’.

Third, arrange universities in clusters, not ranks. Given the inevitable measurement error in data used to feed the rankings, banding institutions as high, medium or low in any given category is fairer than giving the false impression that a university ranked at 100 is significantly different to one ranked at 101.  

Fourth, provide profiles, not rankings. There is little justification for giving different weights to each ranking element — counting research and discovery as 50% of the total rank, say, and learning experience as 10% — when end users might value them differently. By giving equal weighting to all data elements and arranging them as a profile, decision makers can see the relative strengths of universities more clearly, and avoid reductive rankings. 

Fifth, provide qualitative evidence to support quantitative data. It would be easy and helpful to link from data-driven rankings to the qualitative complement provided by institutions. This is already the practice of the CWTS Leiden Ranking.

Universities and their associations should harness their powerful role as consumers of ranking data to demand better. This will free universities to respond to the needs of the societies they serve and become institutions that are fit for the future.  

Nature 647, 317-319 (2025)

doi: https://doi.org/10.1038/d41586-025-03636-x


No hay comentarios:

Publicar un comentario

Para reformar las universidades, primero hay que enfrentar a los rankings mundiales

Publicado en Nature https://www.nature.com/articles/d41586-025-03636-x Para reformar las universidades, primero hay que abordar las clasific...