miércoles, 2 de julio de 2025

La presión por cuantificar la investigación está borrando la profundidad conceptual

Publicado en blog Impact of Social Sciences (London School of Economics-LSE)
https://blogs.lse.ac.uk/impactofsocialsciences/2025/06/11/the-pressure-to-quantify-research-is-erasing-conceptual-depth/ 



La presión por cuantificar la investigación está borrando la profundidad conceptual


Igor Martins

11 de junio de 2025


A medida que las universidades dan cada vez más prioridad a la investigación cuantificable, los académicos se enfrentan a la presión de traducir ideas complejas en resultados cuantificables. Igor Martins analiza cómo las métricas determinan no sólo cómo se evalúa el conocimiento, sino también cómo se forma, y se pregunta si la profundidad y la ambigüedad se sacrifican en aras de la comparabilidad y la claridad.


En las universidades, como en muchos otros sectores, cada vez se hace más hincapié en lo que se puede contar. Cada vez se espera más de los investigadores que traduzcan ideas complejas en resultados mensurables que satisfagan a los financiadores, las revistas y las referencias institucionales. La misma lógica que impulsa las métricas de rendimiento en la sanidad, los exámenes estandarizados en la educación o las evaluaciones de impacto en las políticas públicas se ha convertido en un elemento central de la vida académica. Este cambio afecta a lo que se investiga, cómo se enmarca y qué conclusiones se consideran legítimas.


Con el tiempo, estos indicadores se institucionalizan y corremos el riesgo de confundir la medición con el fenómeno en sí.



Esta dinámica no es nueva. La preocupación por la forma en que las instituciones privilegian lo que se puede contar circula desde hace más de una década, como señaló Howard Aldrich al describir las jerarquías que surgen de equiparar legitimidad con cuantificabilidad. Lo que comenzó como un debate entre métodos cualitativos y cuantitativos ha evolucionado desde entonces hacia un problema más profundo: las instituciones dan cada vez más prioridad a la investigación que puede medirse, lo que determina no sólo cómo se evalúa el trabajo, sino también qué tipo de preguntas se conciben siquiera. Tanto la investigación cualitativa como la cuantitativa se ven sometidas a presiones para adoptar formatos estandarizados que permitan la comparación, lo que convierte la propia mensurabilidad en una condición previa de lo que se considera conocimiento válido.


Hoy en día, la presión para obtener resultados cuantificables está cada vez más arraigada. Este es especialmente el caso de los investigadores noveles que trabajan en sistemas de financiación, publicación y evaluación que dan prioridad a la comparabilidad frente a la complejidad.


En ese momento, no sólo estaba defendiendo la obra. Estaba cediendo a una lógica con la que no me sentía del todo cómodo. La exigencia de una métrica había empezado a desplazar al propio trabajo conceptual. Había interiorizado la presión de cuantificar. Había empezado con la esperanza de aclarar un concepto, pero acabé simplificándolo. No es que recurriera a la métrica porque las ideas fueran vacías o vagas; eran teóricamente sustanciales, pero eso ya no bastaba.


Para que se consideraran viables, esas ideas tenían que traducirse en términos mensurables. Al intentar que el trabajo fuera legible para los demás, acepté que primero tenía que ser contable. Ese reconocimiento se me quedó grabado. Cada vez me resultaba más difícil ignorar hasta qué punto la exigencia de cuantificación no sólo influía en nuestra forma de presentar las ideas, sino también en la manera de concebirlas.


El problema de comparar resultados de investigación mensurables


Estos problemas se agudizan cuando la evaluación va más allá de los proyectos o investigadores individuales y se intenta comparar entre disciplinas. Como ha señalado Jon Adams, los intentos de clasificar a pensadores o campos académicos enteros se basan en la suposición de que los distintos tipos de conocimiento pueden evaluarse utilizando normas comunes. Sin embargo, las disciplinas son a menudo específicas. Lo que cuenta como excelencia en historia puede ser irrelevante en física, y lo que funciona en economía puede fracasar por completo en filosofía. Cuanto más impongamos una métrica uniforme, más corremos el riesgo de borrar las diferencias que hacen valiosa la diversidad intelectual.


Al fin y al cabo, los indicadores no se limitan a medir. Dan forma a lo que consideramos mensurable. A medida que la disponibilidad de datos empieza a filtrar las preguntas que se formulan, disciplinas enteras corren el riesgo de reorganizarse en torno a lo que puede ser objeto de seguimiento. En algunos campos, las carreras se basan en el perfeccionamiento de aproximaciones a conceptos que siguen siendo conceptualmente inestables. Con el tiempo, la búsqueda de claridad puede desplazar a la profundidad conceptual.


En la historia económica, por ejemplo, la aplicación de métricas fijas a través de grandes distancias históricas puede conducir a lo que el profesor Gareth Austin denominó la compresión de la historia, donde categorías como «calidad institucional» imponen continuidad a realidades sociales y económicas fundamentalmente diferentes. ¿Tiene siquiera sentido aplicar métricas entre cohortes de individuos que pueden haber vivido con siglos de diferencia? Por supuesto, podemos mantener la unidad estable y, por tanto, comparable, pero corremos el riesgo de proyectar supuestos modernos sobre personas cuyas vidas fueron moldeadas por culturas totalmente diferentes.


Aun así, la medición sigue siendo una de las pocas formas en que las ideas abstractas pueden salir de la página y entrar en el mundo. Permite la comparación, la reproducción y la portabilidad. Son cualidades que permiten que las ideas circulen y se amplíen. Aunque ninguna métrica capta a la perfección el concepto que representa, la medición ofrece una forma de dar sentido a los resultados de la investigación y actuar en consecuencia.


Esto es especialmente visible en la economía del desarrollo, donde indicadores como el PIB o la calidad institucional orientan las decisiones de financiación y configuran los programas de investigación. Tensiones similares surgen en la investigación sobre el bienestar, donde los autoinformes subjetivos compiten con las medidas biomédicas o conductuales, y en la evaluación académica, donde la influencia se infiere a menudo del recuento de citas y las clasificaciones de las revistas. En cada caso, la medición crea un punto de referencia compartido. Sin embargo, cuando esos puntos se convierten en objetivos fijos, el indicador puede empezar a oscurecer la idea a la que pretendía aproximarse.


El reto no es que midamos, sino que la medición se convierta en algo demasiado fácil de confiar y demasiado difícil de cuestionar. Cuando un concepto es absorbido por su sustituto, dejamos de preguntarnos qué pretendía captar en primer lugar. Las métricas deben aclarar, no simplificar. Deben agudizar el pensamiento, no impedirlo. Para que la medición siga siendo una herramienta de comprensión y no un sustituto de la misma, debemos estar atentos no sólo a cómo medimos, sino a lo que desaparece cuando la medición se convierte en rutina. La ambigüedad no siempre es un problema que haya que resolver. A veces es lo que hace que merezca la pena medir un concepto.



/////////////////////////////////



The pressure to quantify research is erasing conceptual depth


Igor Martins

June 11th, 2025



As universities increasingly prioritise research that can be measured, academics face a pressure to translate complex ideas into quantifiable outputs. Igor Martins explores how metrics shape not only how knowledge is evaluated but how it is formed, raising questions about whether depth and ambiguity are sacrificed for comparability and clarity.


In universities, as in many other sectors, there is a growing emphasis on what can be counted. Researchers are increasingly expected to translate complex ideas into measurable findings that satisfy funders, journals and institutional benchmarks. The same logic that drives performance metrics in healthcare, standardised testing in education or impact assessments in public policy has become central to academic life. This shift affects what is researched, how it is framed and which findings are deemed legitimate.

Over time, these proxies become institutionalised, and we risk mistaking the measurement for the phenomenon itself.   

These dynamics are not new. Concerns about how institutions privilege what can be counted have circulated for more than a decade, as Howard Aldrich noted when describing the hierarchies that arise from equating legitimacy with quantifiability. What began as a debate between qualitative and quantitative methods has since evolved into a deeper problem: institutions increasingly prioritise research that can be measured, which shapes not only how work is evaluated but also what kinds of questions are even conceived. Both qualitative and quantitative research are pressured into standardised formats that allow for comparison, making measurability itself a precondition for what counts as valid knowledge.

Today, the pressure to produce measurable outputs has become more entrenched. This is especially the case for early-career researchers working within funding, publication and evaluation systems that prioritise comparability over complexity.   

The pressure to transform research into something measurable

I encountered this tension during my postdoctoral fellowship at Lund University, where I was involved in a project developing a new theory of economic catching up. The central idea was that countries close development gaps not by growing faster but by shrinking less. The theory relied on the concept of social capabilities, which includes abstract but essential dimensions such as transformation, inclusion, accountability, autonomy and stability. My task was to translate these into something measurable.

Each proxy I proposed, including indicators of political inclusiveness, economic diversification, or institutional resilience, met the same critique: not clear enough, not measurable enough, not grounded enough. And the critique was fair. These were difficult concepts to clearly define. But I noticed a shift in how we were approaching the problem. At one point, after another round of pushback, I found myself saying: “If we ever want to present this to a policymaker, we cannot just say ‘improve your social capabilities.’ We need to give them a metric. Something they can track over time.”    

In that moment, I was not just defending the work. I was conceding to a logic I was not fully comfortable with. The demand for a metric had begun to displace the conceptual work itself. I had internalised the pressure to quantify. I had started with the hope of clarifying a concept, but I ended up simplifying it. It was not that I resorted to metrics because the ideas were empty or vague; they were theoretically substantive, but that was no longer enough.

To be seen as viable, these ideas had to be translated into measurable terms. In trying to make the work legible to others, I had accepted that it needed to be countable first. That recognition stayed with me. It became harder to ignore the extent to which the demand for quantification was not just shaping how we present ideas, but how we form them in the first place.

The problem of comparing measurable research findings

These problems become more acute when evaluation moves beyond individual projects or researchers and to attempts to compare across disciplines. As Jon Adams has argued, attempts to rank thinkers or entire academic fields rest on the assumption that fundamentally different kinds of knowledge can be assessed using shared standards. Yet disciplines are often task specific. What counts as excellence in history may be irrelevant in physics, and what works in economics may fail entirely in philosophy. The more we enforce uniform metrics, the more we risk erasing the very differences that make intellectual diversity valuable.

Proxies, after all, do more than just measure. They shape what we consider measurable. As the availability of data begins to filter which questions are asked, entire disciplines risk reorganising themselves around what can be tracked. In some fields, careers are built on refining proxies for concepts that remain conceptually unstable. Over time, the pursuit of clarity can displace conceptual depth.

In economic history, for example, applying fixed metrics across wide historical distances can lead to what Professor Gareth Austin called the compression of history, where categories like “institutional quality” impose continuity onto fundamentally different social and economic realities. Does it even make sense to apply metrics among cohorts of individuals who may have lived centuries apart? Sure, we can keep the unit stable and thus comparable, but we risk projecting modern assumptions onto people whose lives were shaped by entirely different cultures.

Even so, measurement remains one of the few ways that abstract ideas can leave the page and enter the world. It enables comparison, replication and portability. These are qualities that allow ideas to circulate and scale. While no metric perfectly captures the concept it represents, measurement offers a way to make sense of research findings and take action as a result. 

This is especially visible in development economics, where indicators like GDP or institutional quality guide funding decisions and shape research agendas. Similar tensions emerge in well-being research, where subjective self-reports compete with biomedical or behavioural measures, and in academic evaluation, where influence is often inferred from citation counts and journal rankings. In each case, measurement creates a shared reference point. When those points harden into fixed objectives, however, the indicator can begin to obscure the idea it was meant to approximate.

The challenge is not that we measure, but that measurement becomes too easy to rely on and too difficult to interrogate. When a concept is absorbed by its proxy, we stop asking what it was meant to capture in the first place. Metrics should clarify, not simplify. They should sharpen thinking, not foreclose it. If measurement is to remain a tool for understanding rather than a substitute for it, we need to stay vigilant not only about how we measure but about what disappears when measurement becomes routine. Ambiguity is not always a problem to be solved. Sometimes, it is what makes a concept worth measuring at all.  


The content generated on this blog is for information purposes only. This Article gives the views and opinions of the authors and does not reflect the views and opinions of the Impact of Social Science blog (the blog), nor of the London School of Economics and Political Science. Please review our comments policy if you have any concerns on posting a comment below.

Igor Martins is an economic historian whose research focuses on African economic history, with particular attention to slavery, labor, and colonial legacies in Southern and West Africa, as well as resilience to economic shrinking in the Global South. He received his PhD from Lund University, has held postdoctoral positions at Lund and the University of Cambridge, and was a visiting scholar at Stellenbosch University. He teaches at Lund University School of Economics and Management and serves as a consultant to STINT (The Swedish Foundation for International Cooperation in Research and Higher Education).

martes, 1 de julio de 2025

La publicación en revistas científicas de alto impacto: un modelo de economía basado en la codicia

Publicado en Portal INSP





La publicación en revistas científicas de alto impacto: un modelo de economía basado en la codicia

Columna
Conversaciones de salud pública



“Cuando la ética se enfrenta al lucro, rara vez la codicia sale perdiendo”

A partir de 1950 se han publicado decenas de millones de artículos científicos en todas las áreas del conocimiento. Este número crece todos los días en forma exponencial. Sin embargo, la gran mayoría de estos productos científicos tiene nulo impacto en la comunidad académica y en la sociedad. Esto es, a lo largo de más de 75 años, 44% de estos artículos no fue referido por alguno de sus pares; de hecho, 32% solamente tienen entre una y nueve citas. En esta estadística, hay un grupo muy selecto de 148 publicaciones a nivel mundial que tienen más de 10,000 citas bibliográficas y representan solamente el 0.0003% de las publicaciones existentes. Caracterizar la relevancia de una publicación científica tiene un enorme grado de complejidad. Una propuesta de dicha evaluación es el denominado Factor de Impacto de Revistas (JIF, por sus siglas en inglés) que fue desarrollado por Eugene Garfield, el fundador del Instituto de Información Científica, en las décadas de 1950 y 1960. Inicialmente, su propósito era ayudar a los bibliotecarios a decidir qué revistas incluir en el Science Citation Index y evaluar la importancia relativa de los artículos científicos. El JIF se calcula dividiendo el número de citas recibidas en un año determinado a artículos publicados en una revista en los dos años precedentes entre el número total de elementos citables (generalmente artículos originales, revisiones, etc.) publicados en esa revista durante el mismo periodo. Con el tiempo, el JIF se ha convertido en una métrica ampliamente utilizada, aunque es importante tener en cuenta que tiene limitaciones y no debe ser la única medida de la calidad o el impacto de una revista, menos aún de un investigador. Esto es porque, como afirmaba el propio Garfield, los descubrimientos verdaderamente fundamentales -la Teoría especial de la relatividad de Einstein es un ejemplo son tan importantes que no necesitan una cita. Otro ejemplo significativo es el hecho de que el manuscrito de Watson y Crick (1953) donde se describe por primera vez la estructura del ADN, hace más de siete décadas, tiene solamente 5,000 y 11,000 citas, en función de la fuente que se consulte. En México, la mayor productividad científica corresponde al área médica y le siguen las de ingeniería, agricultura, física y astronomía. Pero, ¿cómo se ha transformado el mundo de la publicación científica? Actualmente, el Estado subvenciona con financiamiento público las actividades o proyectos de las instituciones de educación superior, y los resultados de estas iniciativas académicas son dados a conocer a la comunidad científica global a través de las revistas. Los autores (científicos) entregan sus manuscritos a las editoriales sin costo alguno, los revisores (científicos) realizan una evaluación de pares sin costo alguno; por otro lado, las editoriales dueñas de las revistas venden sus productos a las bibliotecas y descargar un artículo científico por particulares tiene un costo elevado. Las bibliotecas y los usuarios pagan con fondos públicos. Por dar un ejemplo, para publicar en la revista Nature a través del acceso abierto “dorado” se pagan $12, 690 dólares. Para cerrar este círculo malévolo, el Estado, a través de sus mecanismos de evaluación, exige a los científicos indicadores individuales y la propia comunidad académica (en su participación en la evaluación de pares) imponen el imperativo de publicar en revistas de muy alto costo, lo que produce una enorme inequidad para países como el nuestro, que no alcanza una productividad científica mayor a uno por ciento. En resumen, el proceso de publicación científica está actualmente sostenido por incentivos perversos; la promoción académica está basada en un modelo de “publicar o perecer”. Con el afán de obtener prestigio, los investigadores buscan publicar en revistas del más alto impacto, que tienen un costo elevado, y los indicadores meritocráticos cuantitativos del mundo científico mantienen este círculo malicioso. En este contexto, hay una enorme epidemia de revistas y organización de conferencias denominadas “depredadoras”. Las revistas depredadoras son publicaciones “académicas” que priorizan el lucro sobre la integridad académica. Explotan el modelo de publicación de acceso abierto oneroso cobrando honorarios a los autores sin ofrecer la revisión por pares, la edición y otros servicios editoriales esperados. Estas revistas suelen engañar a los autores con información falsa o engañosa sobre su indexación, consejos editoriales y procesos de revisión por pares. Es difícil determinar el número exacto de revistas científicas depredadoras en 2025, pero en 2021, las estimaciones situaron la cifra en más de 15,000. Este es un problema muy serio porque este tipo de revistas dan voz al activismo pseudocientífico en posturas contra la vacunación, la negación del cambio climático, y la promoción de remedios potencialmente dañinos no probados con ensayos clínicos, entre otras.

También se ha popularizado publicar en revistas de acceso abierto bajo el modelo “dorado”, que suelen exigir a los autores el pago de una tarifa de procesamiento de artículos (también conocida como tarifa de publicación) de aproximadamente $2,500 dólares para cubrir los costos de poner su trabajo en línea. Si bien los autores pueden pagar estas tarifas con sus propios recursos, la mayoría de las veces suelen cubrirse por subvenciones de investigación, fondos públicos institucionales u otras fuentes. Ante esta perspectiva se han creado directorios con índices de revistas de acceso abierto de todo el mundo, impulsados por una comunidad científica en crecimiento, misma que está comprometida a garantizar que el contenido de calidad esté disponible en línea y gratuitamente para todos.

La semana pasada se dio la muy grata noticia de que la revista Salud Pública de México, con 66 años de existencia y anidada en el Instituto Nacional de Salud Pública de México, alcanzó un factor de impacto de 3.1, constituyéndose en una iniciativa ejemplar de revista gratuita de acceso abierto bajo el modelo “diamante” (sin cargos por publicar), que lidera las revistas científicas del área de salud pública en el ámbito iberoamericano, porque privilegia la publicación de resultados originales con métodos muy robustos y de interés por resolver grandes problemas de salud pública, lo que adicionalmente le confiere una propia identidad. Esto es una excelente noticia para el contexto científico de México y nos debe enorgullecer. ¿Qué depara el futuro de la publicación científica? Sin ninguna duda, debemos promover que los datos de investigación pública sean obligatoriamente públicos. También, para robustecer la transparencia, será necesaria la disponibilidad de los datos como un requisito para la publicación. La revisión por pares abierta (no ciega) antes de la publicación es una tendencia reciente. Con las plataformas digitales, las revistas impresas ya no deben existir. Finalmente, una recomendación para las autoridades que regulan la práctica de investigación en México es que deben promover incentivos para publicar en aquellas revistas que, siendo de carácter internacional, son publicadas en el país, y que muchos de los hallazgos sean de utilidad como recomendaciones de política pública.



* Especialistas en salud pública y comunicación científica

ARTÍCULO: IA Generativa y Acceso Abierto: un nuevo paradigma económico

Generative AI and Open Access Publishing: A New Economic Paradigm


Leo S. Lo

LIBRARY TRENDS, Vol. 73, No. 3, 2025 (“Generative AI and Libraries: Applications and Ethics, Part I,” edited by Melissa A. Wong), pp. 160–176. © 2025 The Board of Trustees, University of Illinois   

Resumen
La integración de la inteligencia artificial generativa (IA) en la publicación académica presenta tanto oportunidades como retos para el acceso abierto. La IA puede agilizar los flujos de trabajo, reducir los costes y mejorar la visibilidad de la investigación, lo que puede hacer que el acceso abierto sea más sostenible desde el punto de vista financiero. Sin embargo, las mismas capacidades de la IA también suscitan preocupación por la exclusividad y la creación de un sistema escalonado que limita el acceso al conocimiento. Los editores se enfrentan a una decisión estratégica entre abrazar el acceso abierto y aprovechar la IA para contenidos y servicios exclusivos. Las bibliotecas desempeñan un papel crucial a la hora de defender el acceso abierto y el uso ético de la IA, adquirir experiencia e influir en el desarrollo de políticas. Equilibrar los beneficios de la IA con los principios de equidad e inclusión requiere la colaboración entre las partes interesadas. Trabajando juntos, editores, bibliotecarios y responsables políticos pueden aprovechar el poder de la IA para democratizar el acceso al conocimiento, respetando al mismo tiempo las normas éticas y fomentando una comunidad académica más inclusiva y equitativa.
  

Abstract
The integration of generative artificial intelligence (AI) in scholarly publishing presents both opportunities and challenges for open access. AI can streamline workflows, reduce costs, and enhance the discoverability of research, potentially making open access more financially sustainable. However, the same AI capabilities also raise concerns about exclusivity and the creation of a tiered system that limits access to knowledge. Publishers face a strategic decision be tween embracing open access and leveraging AI for proprietary content and services. Libraries play a crucial role in advocating for open access and ethical AI use, building expertise, and influencing policy development. Balancing the benefits of AI with the principles of equity and inclusivity requires collaboration among stakeholders. By working together, publishers, librarians, and policymakers can harness the power of AI to democratize access to knowledge while upholding ethical standards, fostering a more inclusive and equitable academic community.

COAR lanza el Directorio Internacional de Repositorios (IRD)

Publicado en blog  Universo abierto https://universoabierto.org/2025/07/10/coar-lanza-el-directorio-internacional-de-repositorios-ird/   Int...