Mostrando entradas con la etiqueta Ciencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta Ciencia. Mostrar todas las entradas

martes, 29 de julio de 2025

CHINA lidera la producción de investigación de los países del G20

Publicado en Research information
https://www.researchinformation.info/news/china-leads-the-way-in-research-output-across-g20-nations/
 


China lidera la producción de investigación de los países del G20

9 de julio de 2025



Clarivate ha publicado su tabla de puntuación anual de investigación e innovación del G20, elaborado por analistas y científicos de datos del Instituto de Información Científica (ISI). Este cuadro de mando interactivo ofrece una visión basada en datos de las capacidades de investigación e innovación de los países miembros del G20.

Como novedad en 2025, la puntuación incorpora datos del Índice de Citación de Fuentes Emergentes (ESCI), una edición de revistas multidisciplinares de la Web of Science Core Collection. Esta incorporación mejora la capacidad de la puntuación para reflejar toda la amplitud de la actividad investigadora mundial.

Las principales conclusiones son:

  • Unión Europea: La colaboración con China continental se ha más que duplicado en la última década (del 3,0% en 2015 al 6,6% en 2024), mientras que las asociaciones con Estados Unidos (12%) y Reino Unido (9%) se mantienen estables.


  • China continental: Lidera el G20 en producción investigadora con casi 900.000 artículos en 2024, el triple que en 2015. Más de la mitad de estos artículos son de colaboración nacional, lo que refleja un cambio hacia las asociaciones internas.


  • Estados Unidos: La colaboración internacional ha aumentado hasta el 43%, pero sigue siendo inferior a la de otras economías avanzadas, probablemente debido a la escala de la investigación nacional. China continental es el mayor socio internacional de Estados Unidos, principalmente a través de asociaciones bilaterales.

  • Reino Unido: La colaboración internacional ha crecido del 55% en 2015 al 70% en 2024, impulsada por las asociaciones multinacionales. Estados Unidos sigue siendo el principal socio del Reino Unido, pero la colaboración con China continental también ha aumentado significativamente (del 5,5 % al 14,4 %).

  • Canadá: Mantiene fuertes lazos con Estados Unidos, con un 26,8% de los artículos canadienses en 2024 en coautoría con investigadores estadounidenses. Casi la mitad de ellos corresponden a Ciencias Médicas y de la Salud (47,2%), seguidos de Ciencias Naturales (39,5%).

  • Australia: China continental ha superado a Estados Unidos como principal socio de investigación de Australia, con un aumento de la colaboración del 9,7% en 2015 al 19,5% en 2024. La mayor parte de esta investigación conjunta se realiza en Ciencias Naturales (56,3%) e Ingeniería y Tecnología (45,4%).

Este año, el ISI ha perfeccionado el sistema de puntuación para destacar mejor la colaboración y el impacto, reflejando la filosofía Ubuntu de conexión y colaboración del país anfitrión del G20, Sudáfrica. La puntuación revela los resultados de la investigación de cada miembro junto con el contexto económico y las prioridades académicas. Las nuevas características incluyen desgloses a nivel de campo de la OCDE, información sobre el acceso abierto y la investigación alineada con los ODS, y un enfoque sobre cómo las naciones del G20 están trabajando juntas para hacer frente a los desafíos globales.

El cuadro de mando 2025 ya está disponible gratuitamente en Clarivate.com y se lanza antes de la Cumbre del G20 que se celebrará en Johannesburgo (Sudáfrica) del 22 al 23 de noviembre.

Emmanuel Thiveaud, Vicepresidente Senior de Investigación y Análisis, Academia y Gobierno en Clarivate dijo: "En Clarivate, estamos comprometidos con el avance de la evaluación responsable de la investigación, proporcionando información transparente y basada en datos que empodere a las instituciones y a los responsables políticos. El cuadro de mando del G20 de 2025 refleja este compromiso, destacando el impacto colaborativo y social de esa investigación. Mediante la incorporación de nuevas fuentes de datos y el perfeccionamiento de nuestro enfoque, nuestro objetivo es apoyar un ecosistema de investigación global más inclusivo y conectado."

Gordon Rogers, director general de Ciencia de Datos del Instituto de Información Científica de Clarivate, ha añadido: "El cuadro de mando de este año ilustra claramente cómo los países del G20 están evolucionando sus estrategias de investigación: adoptando el acceso abierto, profundizando en las asociaciones internacionales y alineándose más estrechamente con retos mundiales como los Objetivos de Desarrollo Sostenible. Gracias a nuestras visualizaciones mejoradas y a nuestras perspectivas por campos, resulta más fácil que nunca explorar estas tendencias y comprender las dinámicas que configuran la ciencia mundial".

Los miembros del G20 que aparecen en el cuadro de mando son: Alemania, Arabia Saudí, Argentina, Australia, Brasil, Canadá, China (continental), Corea del Sur, Estados Unidos, Francia, India, Indonesia, Italia, Japón, México, Reino Unido, Rusia, Sudáfrica, Turquía y la Unión Europea.

//////////////////////////////////////////

China leads the way in research output across G20 nations

9 July 2025


Clarivate has published its annual G20 research and innovation scorecard, developed by analysts and data scientists at the Institute for Scientific Information (ISI). This interactive scorecard offers a data-driven view of the research and innovation capabilities of G20 member nations.

New in 2025, the scorecard incorporates data from the Emerging Sources Citation Index (ESCI), a multidisciplinary journal edition in the the Web of Science Core Collection. This addition enhances the scorecard’s ability to reflect the full breadth of global research activity.  

Key findings include:

  • European Union: Collaboration with Mainland China has more than doubled over the past decade (from 3.0% in 2015 to 6.6% in 2024), while partnerships with the U.S. (12%) and U.K. (9%) remain steady.

  • Mainland China: Leads the G20 in research output with nearly 900,000 papers in 2024 – triple its 2015 volume. Over half of these papers involve domestic collaboration, reflecting a shift toward internal partnerships.

  • United States: International collaboration has increased to 43% but remains lower than other advanced economies, likely due to the scale of domestic research. Mainland China is the U.S.’s largest international partner, primarily through bilateral partnerships. 

  • United Kingdom: International collaboration has grown from 55% in 2015 to 70% in 2024, driven by multi-country partnerships. The U.S. remains the U.K.’s top partner, but collaboration with Mainland China has also risen significantly (from 5.5% to 14.4%).

  • Canada: Maintains strong ties with the U.S., with 26.8% of Canadian papers in 2024 co-authored with U.S. researchers. Nearly half of these are in Medical & Health Sciences (47.2%), followed by Natural Sciences (39.5%).

  • Australia: Mainland China has overtaken the U.S. as Australia’s top research partner, with collaboration rising from 9.7% in 2015 to 19.5% in 2024. Most of this joint research is in Natural Sciences (56.3%) and Engineering & Technology (45.4%).  

This year the ISI has refined the scorecard to better highlight collaboration and impact, reflecting G20 host South Africa’s Ubuntu philosophy of connectedness and collaboration. It reveals each member’s research performance alongside economic context and academic priorities. New features include OECD field-level breakdowns, insights into open access and SDG-aligned research, and a focus on how G20 nations are working together to address global challenges.

The 2025 scorecard is freely available now on Clarivate.com and launches ahead of the G20 Summit in Johannesburg, South Africa, on November 22 to 23.  

Emmanuel Thiveaud, Senior Vice President for Research & Analytics, Academia & Government at Clarivate said: “At Clarivate, we are committed to advancing responsible research assessment by providing transparent, data-driven insights that empower institutions and policymakers. The 2025 G20 scorecard reflects this commitment, highlighting the collaborative and societal impact of that research. By incorporating new data sources and refining our approach, we aim to support a more inclusive and connected global research ecosystem.” 

Gordon Rogers, Senior Manager, Data Science at the Institute for Scientific Information at Clarivate, added: “This year’s scorecard tells a powerful story of how G20 nations are evolving their research strategies – embracing open access, deepening international partnerships, and aligning more closely with global challenges like the Sustainable Development Goals. Our enhanced visualisations and field-level insights make it easier than ever to explore these trends and understand the dynamics shaping global science.”

The G20 members featured in the scorecard are: African Union, Argentina, Australia, Brazil, Canada, China (Mainland), European Union, France, Germany, India, Indonesia, Italy, Japan, Mexico, Russia, Saudi Arabia, South Africa, South Korea, Türkiye, the United Kingdom and the United States.


miércoles, 2 de julio de 2025

La presión por cuantificar la investigación está borrando la profundidad conceptual

Publicado en blog Impact of Social Sciences (London School of Economics-LSE)
https://blogs.lse.ac.uk/impactofsocialsciences/2025/06/11/the-pressure-to-quantify-research-is-erasing-conceptual-depth/ 



La presión por cuantificar la investigación está borrando la profundidad conceptual


Igor Martins

11 de junio de 2025


A medida que las universidades dan cada vez más prioridad a la investigación cuantificable, los académicos se enfrentan a la presión de traducir ideas complejas en resultados cuantificables. Igor Martins analiza cómo las métricas determinan no sólo cómo se evalúa el conocimiento, sino también cómo se forma, y se pregunta si la profundidad y la ambigüedad se sacrifican en aras de la comparabilidad y la claridad.


En las universidades, como en muchos otros sectores, cada vez se hace más hincapié en lo que se puede contar. Cada vez se espera más de los investigadores que traduzcan ideas complejas en resultados mensurables que satisfagan a los financiadores, las revistas y las referencias institucionales. La misma lógica que impulsa las métricas de rendimiento en la sanidad, los exámenes estandarizados en la educación o las evaluaciones de impacto en las políticas públicas se ha convertido en un elemento central de la vida académica. Este cambio afecta a lo que se investiga, cómo se enmarca y qué conclusiones se consideran legítimas.


Con el tiempo, estos indicadores se institucionalizan y corremos el riesgo de confundir la medición con el fenómeno en sí.



Esta dinámica no es nueva. La preocupación por la forma en que las instituciones privilegian lo que se puede contar circula desde hace más de una década, como señaló Howard Aldrich al describir las jerarquías que surgen de equiparar legitimidad con cuantificabilidad. Lo que comenzó como un debate entre métodos cualitativos y cuantitativos ha evolucionado desde entonces hacia un problema más profundo: las instituciones dan cada vez más prioridad a la investigación que puede medirse, lo que determina no sólo cómo se evalúa el trabajo, sino también qué tipo de preguntas se conciben siquiera. Tanto la investigación cualitativa como la cuantitativa se ven sometidas a presiones para adoptar formatos estandarizados que permitan la comparación, lo que convierte la propia mensurabilidad en una condición previa de lo que se considera conocimiento válido.


Hoy en día, la presión para obtener resultados cuantificables está cada vez más arraigada. Este es especialmente el caso de los investigadores noveles que trabajan en sistemas de financiación, publicación y evaluación que dan prioridad a la comparabilidad frente a la complejidad.


En ese momento, no sólo estaba defendiendo la obra. Estaba cediendo a una lógica con la que no me sentía del todo cómodo. La exigencia de una métrica había empezado a desplazar al propio trabajo conceptual. Había interiorizado la presión de cuantificar. Había empezado con la esperanza de aclarar un concepto, pero acabé simplificándolo. No es que recurriera a la métrica porque las ideas fueran vacías o vagas; eran teóricamente sustanciales, pero eso ya no bastaba.


Para que se consideraran viables, esas ideas tenían que traducirse en términos mensurables. Al intentar que el trabajo fuera legible para los demás, acepté que primero tenía que ser contable. Ese reconocimiento se me quedó grabado. Cada vez me resultaba más difícil ignorar hasta qué punto la exigencia de cuantificación no sólo influía en nuestra forma de presentar las ideas, sino también en la manera de concebirlas.


El problema de comparar resultados de investigación mensurables


Estos problemas se agudizan cuando la evaluación va más allá de los proyectos o investigadores individuales y se intenta comparar entre disciplinas. Como ha señalado Jon Adams, los intentos de clasificar a pensadores o campos académicos enteros se basan en la suposición de que los distintos tipos de conocimiento pueden evaluarse utilizando normas comunes. Sin embargo, las disciplinas son a menudo específicas. Lo que cuenta como excelencia en historia puede ser irrelevante en física, y lo que funciona en economía puede fracasar por completo en filosofía. Cuanto más impongamos una métrica uniforme, más corremos el riesgo de borrar las diferencias que hacen valiosa la diversidad intelectual.


Al fin y al cabo, los indicadores no se limitan a medir. Dan forma a lo que consideramos mensurable. A medida que la disponibilidad de datos empieza a filtrar las preguntas que se formulan, disciplinas enteras corren el riesgo de reorganizarse en torno a lo que puede ser objeto de seguimiento. En algunos campos, las carreras se basan en el perfeccionamiento de aproximaciones a conceptos que siguen siendo conceptualmente inestables. Con el tiempo, la búsqueda de claridad puede desplazar a la profundidad conceptual.


En la historia económica, por ejemplo, la aplicación de métricas fijas a través de grandes distancias históricas puede conducir a lo que el profesor Gareth Austin denominó la compresión de la historia, donde categorías como «calidad institucional» imponen continuidad a realidades sociales y económicas fundamentalmente diferentes. ¿Tiene siquiera sentido aplicar métricas entre cohortes de individuos que pueden haber vivido con siglos de diferencia? Por supuesto, podemos mantener la unidad estable y, por tanto, comparable, pero corremos el riesgo de proyectar supuestos modernos sobre personas cuyas vidas fueron moldeadas por culturas totalmente diferentes.


Aun así, la medición sigue siendo una de las pocas formas en que las ideas abstractas pueden salir de la página y entrar en el mundo. Permite la comparación, la reproducción y la portabilidad. Son cualidades que permiten que las ideas circulen y se amplíen. Aunque ninguna métrica capta a la perfección el concepto que representa, la medición ofrece una forma de dar sentido a los resultados de la investigación y actuar en consecuencia.


Esto es especialmente visible en la economía del desarrollo, donde indicadores como el PIB o la calidad institucional orientan las decisiones de financiación y configuran los programas de investigación. Tensiones similares surgen en la investigación sobre el bienestar, donde los autoinformes subjetivos compiten con las medidas biomédicas o conductuales, y en la evaluación académica, donde la influencia se infiere a menudo del recuento de citas y las clasificaciones de las revistas. En cada caso, la medición crea un punto de referencia compartido. Sin embargo, cuando esos puntos se convierten en objetivos fijos, el indicador puede empezar a oscurecer la idea a la que pretendía aproximarse.


El reto no es que midamos, sino que la medición se convierta en algo demasiado fácil de confiar y demasiado difícil de cuestionar. Cuando un concepto es absorbido por su sustituto, dejamos de preguntarnos qué pretendía captar en primer lugar. Las métricas deben aclarar, no simplificar. Deben agudizar el pensamiento, no impedirlo. Para que la medición siga siendo una herramienta de comprensión y no un sustituto de la misma, debemos estar atentos no sólo a cómo medimos, sino a lo que desaparece cuando la medición se convierte en rutina. La ambigüedad no siempre es un problema que haya que resolver. A veces es lo que hace que merezca la pena medir un concepto.



/////////////////////////////////



The pressure to quantify research is erasing conceptual depth


Igor Martins

June 11th, 2025



As universities increasingly prioritise research that can be measured, academics face a pressure to translate complex ideas into quantifiable outputs. Igor Martins explores how metrics shape not only how knowledge is evaluated but how it is formed, raising questions about whether depth and ambiguity are sacrificed for comparability and clarity.


In universities, as in many other sectors, there is a growing emphasis on what can be counted. Researchers are increasingly expected to translate complex ideas into measurable findings that satisfy funders, journals and institutional benchmarks. The same logic that drives performance metrics in healthcare, standardised testing in education or impact assessments in public policy has become central to academic life. This shift affects what is researched, how it is framed and which findings are deemed legitimate.

Over time, these proxies become institutionalised, and we risk mistaking the measurement for the phenomenon itself.   

These dynamics are not new. Concerns about how institutions privilege what can be counted have circulated for more than a decade, as Howard Aldrich noted when describing the hierarchies that arise from equating legitimacy with quantifiability. What began as a debate between qualitative and quantitative methods has since evolved into a deeper problem: institutions increasingly prioritise research that can be measured, which shapes not only how work is evaluated but also what kinds of questions are even conceived. Both qualitative and quantitative research are pressured into standardised formats that allow for comparison, making measurability itself a precondition for what counts as valid knowledge.

Today, the pressure to produce measurable outputs has become more entrenched. This is especially the case for early-career researchers working within funding, publication and evaluation systems that prioritise comparability over complexity.   

The pressure to transform research into something measurable

I encountered this tension during my postdoctoral fellowship at Lund University, where I was involved in a project developing a new theory of economic catching up. The central idea was that countries close development gaps not by growing faster but by shrinking less. The theory relied on the concept of social capabilities, which includes abstract but essential dimensions such as transformation, inclusion, accountability, autonomy and stability. My task was to translate these into something measurable.

Each proxy I proposed, including indicators of political inclusiveness, economic diversification, or institutional resilience, met the same critique: not clear enough, not measurable enough, not grounded enough. And the critique was fair. These were difficult concepts to clearly define. But I noticed a shift in how we were approaching the problem. At one point, after another round of pushback, I found myself saying: “If we ever want to present this to a policymaker, we cannot just say ‘improve your social capabilities.’ We need to give them a metric. Something they can track over time.”    

In that moment, I was not just defending the work. I was conceding to a logic I was not fully comfortable with. The demand for a metric had begun to displace the conceptual work itself. I had internalised the pressure to quantify. I had started with the hope of clarifying a concept, but I ended up simplifying it. It was not that I resorted to metrics because the ideas were empty or vague; they were theoretically substantive, but that was no longer enough.

To be seen as viable, these ideas had to be translated into measurable terms. In trying to make the work legible to others, I had accepted that it needed to be countable first. That recognition stayed with me. It became harder to ignore the extent to which the demand for quantification was not just shaping how we present ideas, but how we form them in the first place.

The problem of comparing measurable research findings

These problems become more acute when evaluation moves beyond individual projects or researchers and to attempts to compare across disciplines. As Jon Adams has argued, attempts to rank thinkers or entire academic fields rest on the assumption that fundamentally different kinds of knowledge can be assessed using shared standards. Yet disciplines are often task specific. What counts as excellence in history may be irrelevant in physics, and what works in economics may fail entirely in philosophy. The more we enforce uniform metrics, the more we risk erasing the very differences that make intellectual diversity valuable.

Proxies, after all, do more than just measure. They shape what we consider measurable. As the availability of data begins to filter which questions are asked, entire disciplines risk reorganising themselves around what can be tracked. In some fields, careers are built on refining proxies for concepts that remain conceptually unstable. Over time, the pursuit of clarity can displace conceptual depth.

In economic history, for example, applying fixed metrics across wide historical distances can lead to what Professor Gareth Austin called the compression of history, where categories like “institutional quality” impose continuity onto fundamentally different social and economic realities. Does it even make sense to apply metrics among cohorts of individuals who may have lived centuries apart? Sure, we can keep the unit stable and thus comparable, but we risk projecting modern assumptions onto people whose lives were shaped by entirely different cultures.

Even so, measurement remains one of the few ways that abstract ideas can leave the page and enter the world. It enables comparison, replication and portability. These are qualities that allow ideas to circulate and scale. While no metric perfectly captures the concept it represents, measurement offers a way to make sense of research findings and take action as a result. 

This is especially visible in development economics, where indicators like GDP or institutional quality guide funding decisions and shape research agendas. Similar tensions emerge in well-being research, where subjective self-reports compete with biomedical or behavioural measures, and in academic evaluation, where influence is often inferred from citation counts and journal rankings. In each case, measurement creates a shared reference point. When those points harden into fixed objectives, however, the indicator can begin to obscure the idea it was meant to approximate.

The challenge is not that we measure, but that measurement becomes too easy to rely on and too difficult to interrogate. When a concept is absorbed by its proxy, we stop asking what it was meant to capture in the first place. Metrics should clarify, not simplify. They should sharpen thinking, not foreclose it. If measurement is to remain a tool for understanding rather than a substitute for it, we need to stay vigilant not only about how we measure but about what disappears when measurement becomes routine. Ambiguity is not always a problem to be solved. Sometimes, it is what makes a concept worth measuring at all.  


The content generated on this blog is for information purposes only. This Article gives the views and opinions of the authors and does not reflect the views and opinions of the Impact of Social Science blog (the blog), nor of the London School of Economics and Political Science. Please review our comments policy if you have any concerns on posting a comment below.

Igor Martins is an economic historian whose research focuses on African economic history, with particular attention to slavery, labor, and colonial legacies in Southern and West Africa, as well as resilience to economic shrinking in the Global South. He received his PhD from Lund University, has held postdoctoral positions at Lund and the University of Cambridge, and was a visiting scholar at Stellenbosch University. He teaches at Lund University School of Economics and Management and serves as a consultant to STINT (The Swedish Foundation for International Cooperation in Research and Higher Education).

La militarización de Silicon Valley [ Reportaje del NYT: Destacamento 201 con CEOs de OpenAI, Meta, Palatir y Google ]

Publicado en The New York Times https://www.nytimes.com/2025/08/04/technology/google-meta-openai-military-war.html   La militarización de Si...