Publicado en blog Impact of Social Sciences (London School of Economics-LSE)
https://blogs.lse.ac.uk/impactofsocialsciences/2025/06/11/the-pressure-to-quantify-research-is-erasing-conceptual-depth/
La presión por cuantificar la investigación está borrando la profundidad conceptual
Igor Martins
11 de junio de 2025
A medida que las universidades dan cada vez más prioridad a la investigación cuantificable, los académicos se enfrentan a la presión de traducir ideas complejas en resultados cuantificables. Igor Martins analiza cómo las métricas determinan no sólo cómo se evalúa el conocimiento, sino también cómo se forma, y se pregunta si la profundidad y la ambigüedad se sacrifican en aras de la comparabilidad y la claridad.
En las universidades, como en muchos otros sectores, cada vez se hace más hincapié en lo que se puede contar. Cada vez se espera más de los investigadores que traduzcan ideas complejas en resultados mensurables que satisfagan a los financiadores, las revistas y las referencias institucionales. La misma lógica que impulsa las métricas de rendimiento en la sanidad, los exámenes estandarizados en la educación o las evaluaciones de impacto en las políticas públicas se ha convertido en un elemento central de la vida académica. Este cambio afecta a lo que se investiga, cómo se enmarca y qué conclusiones se consideran legítimas.
Con el tiempo, estos indicadores se institucionalizan y corremos el riesgo de confundir la medición con el fenómeno en sí.
Esta dinámica no es nueva. La preocupación por la forma en que las instituciones privilegian lo que se puede contar circula desde hace más de una década, como señaló Howard Aldrich al describir las jerarquías que surgen de equiparar legitimidad con cuantificabilidad. Lo que comenzó como un debate entre métodos cualitativos y cuantitativos ha evolucionado desde entonces hacia un problema más profundo: las instituciones dan cada vez más prioridad a la investigación que puede medirse, lo que determina no sólo cómo se evalúa el trabajo, sino también qué tipo de preguntas se conciben siquiera. Tanto la investigación cualitativa como la cuantitativa se ven sometidas a presiones para adoptar formatos estandarizados que permitan la comparación, lo que convierte la propia mensurabilidad en una condición previa de lo que se considera conocimiento válido.
Hoy en día, la presión para obtener resultados cuantificables está cada vez más arraigada. Este es especialmente el caso de los investigadores noveles que trabajan en sistemas de financiación, publicación y evaluación que dan prioridad a la comparabilidad frente a la complejidad.
En ese momento, no sólo estaba defendiendo la obra. Estaba cediendo a una lógica con la que no me sentía del todo cómodo. La exigencia de una métrica había empezado a desplazar al propio trabajo conceptual. Había interiorizado la presión de cuantificar. Había empezado con la esperanza de aclarar un concepto, pero acabé simplificándolo. No es que recurriera a la métrica porque las ideas fueran vacías o vagas; eran teóricamente sustanciales, pero eso ya no bastaba.
Para que se consideraran viables, esas ideas tenían que traducirse en términos mensurables. Al intentar que el trabajo fuera legible para los demás, acepté que primero tenía que ser contable. Ese reconocimiento se me quedó grabado. Cada vez me resultaba más difícil ignorar hasta qué punto la exigencia de cuantificación no sólo influía en nuestra forma de presentar las ideas, sino también en la manera de concebirlas.
El problema de comparar resultados de investigación mensurables
Estos problemas se agudizan cuando la evaluación va más allá de los proyectos o investigadores individuales y se intenta comparar entre disciplinas. Como ha señalado Jon Adams, los intentos de clasificar a pensadores o campos académicos enteros se basan en la suposición de que los distintos tipos de conocimiento pueden evaluarse utilizando normas comunes. Sin embargo, las disciplinas son a menudo específicas. Lo que cuenta como excelencia en historia puede ser irrelevante en física, y lo que funciona en economía puede fracasar por completo en filosofía. Cuanto más impongamos una métrica uniforme, más corremos el riesgo de borrar las diferencias que hacen valiosa la diversidad intelectual.
Al fin y al cabo, los indicadores no se limitan a medir. Dan forma a lo que consideramos mensurable. A medida que la disponibilidad de datos empieza a filtrar las preguntas que se formulan, disciplinas enteras corren el riesgo de reorganizarse en torno a lo que puede ser objeto de seguimiento. En algunos campos, las carreras se basan en el perfeccionamiento de aproximaciones a conceptos que siguen siendo conceptualmente inestables. Con el tiempo, la búsqueda de claridad puede desplazar a la profundidad conceptual.
En la historia económica, por ejemplo, la aplicación de métricas fijas a través de grandes distancias históricas puede conducir a lo que el profesor Gareth Austin denominó la compresión de la historia, donde categorías como «calidad institucional» imponen continuidad a realidades sociales y económicas fundamentalmente diferentes. ¿Tiene siquiera sentido aplicar métricas entre cohortes de individuos que pueden haber vivido con siglos de diferencia? Por supuesto, podemos mantener la unidad estable y, por tanto, comparable, pero corremos el riesgo de proyectar supuestos modernos sobre personas cuyas vidas fueron moldeadas por culturas totalmente diferentes.
Aun así, la medición sigue siendo una de las pocas formas en que las ideas abstractas pueden salir de la página y entrar en el mundo. Permite la comparación, la reproducción y la portabilidad. Son cualidades que permiten que las ideas circulen y se amplíen. Aunque ninguna métrica capta a la perfección el concepto que representa, la medición ofrece una forma de dar sentido a los resultados de la investigación y actuar en consecuencia.
Esto es especialmente visible en la economía del desarrollo, donde indicadores como el PIB o la calidad institucional orientan las decisiones de financiación y configuran los programas de investigación. Tensiones similares surgen en la investigación sobre el bienestar, donde los autoinformes subjetivos compiten con las medidas biomédicas o conductuales, y en la evaluación académica, donde la influencia se infiere a menudo del recuento de citas y las clasificaciones de las revistas. En cada caso, la medición crea un punto de referencia compartido. Sin embargo, cuando esos puntos se convierten en objetivos fijos, el indicador puede empezar a oscurecer la idea a la que pretendía aproximarse.
El reto no es que midamos, sino que la medición se convierta en algo demasiado fácil de confiar y demasiado difícil de cuestionar. Cuando un concepto es absorbido por su sustituto, dejamos de preguntarnos qué pretendía captar en primer lugar. Las métricas deben aclarar, no simplificar. Deben agudizar el pensamiento, no impedirlo. Para que la medición siga siendo una herramienta de comprensión y no un sustituto de la misma, debemos estar atentos no sólo a cómo medimos, sino a lo que desaparece cuando la medición se convierte en rutina. La ambigüedad no siempre es un problema que haya que resolver. A veces es lo que hace que merezca la pena medir un concepto.
/////////////////////////////////
The pressure to quantify research is erasing conceptual depth
Igor Martins
June 11th, 2025
As universities increasingly prioritise research that can be measured, academics face a pressure to translate complex ideas into quantifiable outputs. Igor Martins explores how metrics shape not only how knowledge is evaluated but how it is formed, raising questions about whether depth and ambiguity are sacrificed for comparability and clarity.
In universities, as in many other sectors, there is a growing emphasis on what can be counted. Researchers are increasingly expected to translate complex ideas into measurable findings that satisfy funders, journals and institutional benchmarks. The same logic that drives performance metrics in healthcare, standardised testing in education or impact assessments in public policy has become central to academic life. This shift affects what is researched, how it is framed and which findings are deemed legitimate.
Over time, these proxies become institutionalised, and we risk mistaking the measurement for the phenomenon itself.
These dynamics are not new. Concerns about how institutions privilege what can be counted have circulated for more than a decade, as Howard Aldrich noted when describing the hierarchies that arise from equating legitimacy with quantifiability. What began as a debate between qualitative and quantitative methods has since evolved into a deeper problem: institutions increasingly prioritise research that can be measured, which shapes not only how work is evaluated but also what kinds of questions are even conceived. Both qualitative and quantitative research are pressured into standardised formats that allow for comparison, making measurability itself a precondition for what counts as valid knowledge.
Today, the pressure to produce measurable outputs has become more entrenched. This is especially the case for early-career researchers working within funding, publication and evaluation systems that prioritise comparability over complexity.
The pressure to transform research into something measurableI encountered this tension during my postdoctoral fellowship at Lund University, where I was involved in a project developing a new theory of economic catching up. The central idea was that countries close development gaps not by growing faster but by shrinking less. The theory relied on the concept of social capabilities, which includes abstract but essential dimensions such as transformation, inclusion, accountability, autonomy and stability. My task was to translate these into something measurable.
Each proxy I proposed, including indicators of political inclusiveness, economic diversification, or institutional resilience, met the same critique: not clear enough, not measurable enough, not grounded enough. And the critique was fair. These were difficult concepts to clearly define. But I noticed a shift in how we were approaching the problem. At one point, after another round of pushback, I found myself saying: “If we ever want to present this to a policymaker, we cannot just say ‘improve your social capabilities.’ We need to give them a metric. Something they can track over time.”
In that moment, I was not just defending the work. I was conceding to a logic I was not fully comfortable with. The demand for a metric had begun to displace the conceptual work itself. I had internalised the pressure to quantify. I had started with the hope of clarifying a concept, but I ended up simplifying it. It was not that I resorted to metrics because the ideas were empty or vague; they were theoretically substantive, but that was no longer enough.
To be seen as viable, these ideas had to be translated into measurable terms. In trying to make the work legible to others, I had accepted that it needed to be countable first. That recognition stayed with me. It became harder to ignore the extent to which the demand for quantification was not just shaping how we present ideas, but how we form them in the first place.
The problem of comparing measurable research findingsThese problems become more acute when evaluation moves beyond individual projects or researchers and to attempts to compare across disciplines. As Jon Adams has argued, attempts to rank thinkers or entire academic fields rest on the assumption that fundamentally different kinds of knowledge can be assessed using shared standards. Yet disciplines are often task specific. What counts as excellence in history may be irrelevant in physics, and what works in economics may fail entirely in philosophy. The more we enforce uniform metrics, the more we risk erasing the very differences that make intellectual diversity valuable.
Proxies, after all, do more than just measure. They shape what we consider measurable. As the availability of data begins to filter which questions are asked, entire disciplines risk reorganising themselves around what can be tracked. In some fields, careers are built on refining proxies for concepts that remain conceptually unstable. Over time, the pursuit of clarity can displace conceptual depth.
In economic history, for example, applying fixed metrics across wide historical distances can lead to what Professor Gareth Austin called the compression of history, where categories like “institutional quality” impose continuity onto fundamentally different social and economic realities. Does it even make sense to apply metrics among cohorts of individuals who may have lived centuries apart? Sure, we can keep the unit stable and thus comparable, but we risk projecting modern assumptions onto people whose lives were shaped by entirely different cultures.
Even so, measurement remains one of the few ways that abstract ideas can leave the page and enter the world. It enables comparison, replication and portability. These are qualities that allow ideas to circulate and scale. While no metric perfectly captures the concept it represents, measurement offers a way to make sense of research findings and take action as a result.
This is especially visible in development economics, where indicators like GDP or institutional quality guide funding decisions and shape research agendas. Similar tensions emerge in well-being research, where subjective self-reports compete with biomedical or behavioural measures, and in academic evaluation, where influence is often inferred from citation counts and journal rankings. In each case, measurement creates a shared reference point. When those points harden into fixed objectives, however, the indicator can begin to obscure the idea it was meant to approximate.
The challenge is not that we measure, but that measurement becomes too easy to rely on and too difficult to interrogate. When a concept is absorbed by its proxy, we stop asking what it was meant to capture in the first place. Metrics should clarify, not simplify. They should sharpen thinking, not foreclose it. If measurement is to remain a tool for understanding rather than a substitute for it, we need to stay vigilant not only about how we measure but about what disappears when measurement becomes routine. Ambiguity is not always a problem to be solved. Sometimes, it is what makes a concept worth measuring at all.
The content generated on this blog is for information purposes only. This Article gives the views and opinions of the authors and does not reflect the views and opinions of the Impact of Social Science blog (the blog), nor of the London School of Economics and Political Science. Please review our comments policy if you have any concerns on posting a comment below.
Igor Martins is an economic historian whose research focuses on African economic history, with particular attention to slavery, labor, and colonial legacies in Southern and West Africa, as well as resilience to economic shrinking in the Global South. He received his PhD from Lund University, has held postdoctoral positions at Lund and the University of Cambridge, and was a visiting scholar at Stellenbosch University. He teaches at Lund University School of Economics and Management and serves as a consultant to STINT (The Swedish Foundation for International Cooperation in Research and Higher Education).
No hay comentarios:
Publicar un comentario