Mostrando entradas con la etiqueta Indicadores. Mostrar todas las entradas
Mostrando entradas con la etiqueta Indicadores. Mostrar todas las entradas

lunes, 16 de febrero de 2026

REINO UNIDO: dificultades para basarse en nuevos indicadores y métricas no tradicionales

Publicado en THE Times Higher Education
https://www.timeshighereducation.com/news/inconsistency-fears-after-ref-retreat-environment-metrics




Temor a la «inconsistencia» tras el retroceso del REF en materia de métricas medioambientales


Según los expertos, se necesita una orientación clara sobre cómo se calificarán las presentaciones basadas en narrativas para evitar acusaciones de que los juicios son excesivamente subjetivos.  


Publicado el 5 de enero de 2026.


Jack Grove.

Twitter: @jgro_the


El uso limitado de métricas en la sección medioambiental renovada del Marco de Excelencia Investigadora (REF) del Reino Unido ha suscitado inquietudes sobre cómo se evaluará de manera coherente.


Se teme que la sección recientemente renombrada como «estrategia, personas y entorno de investigación» (SPRE) sufra las mismas críticas que su predecesora, «personas, cultura y entorno» (PCE), que algunos consideraban poco sólida, dado que las instituciones eran calificadas en función de extensas presentaciones narrativas


Se esperaba que un programa piloto que examinara posibles «indicadores» en áreas como la formación del personal, el acceso abierto y la diversidad pudiera generar métricas que permitieran una evaluación simplificada y objetiva.


Sin embargo, un informe sobre el programa piloto publicado el mes pasado reveló que la recopilación de datos resultó difícil para los participantes. Algunos datos, como los recopilados para el Marco de Intercambio de Conocimientos exclusivo de Inglaterra, no estaban disponibles para todas las instituciones, mientras que la recopilación de datos para otras métricas habría supuesto una «carga significativa» para las instituciones y sería «imposible de recopilar de forma retrospectiva», según se constató.


Además, la población relevante para muchos de los indicadores de investigación era «poco clara» y «podría no ser adecuada para todas las disciplinas», lo que significa que «no se podían aplicar de manera uniforme en todo el ejercicio».


El informe, que recomendaba un «marco mucho más estricto para un ejercicio REF a gran escala», solo proponía un puñado de métricas para la sección PCE sobre las que existía un «acuerdo razonable» entre los miembros del panel que evaluaron las propuestas del programa piloto. Entre ellas se incluyen: datos longitudinales sobre el personal investigador basados en el sexo, el origen étnico y la discapacidad; diferencias salariales para cada una de estas características protegidas; cifras de investigadores noveles recién contratados, personal de apoyo técnico y personal con contratos de duración determinada.  


El informe añade que también se podrían incluir datos sobre el número de veces que se accede a los conjuntos de datos compartidos o la proporción de resultados de investigación publicados en acceso abierto.


Si se vuelve a pedir a los paneles del REF que examinen declaraciones narrativas respaldadas solo por unos pocos datos, habrá que reflexionar más sobre cómo evitar la acusación de que las evaluaciones puedan considerarse «demasiado subjetivas», afirma Simon Green, vicerrector (investigación e intercambio de conocimientos) de la Universidad de Salford y miembro del panel para el proyecto piloto destinado a examinar los indicadores a nivel institucional.


«La coherencia en la evaluación es fundamental. Con algo tan amplio como el SPRE, es normal que los miembros del panel den diferente importancia a los distintos elementos dentro de cada sección», afirmó, añadiendo que los paneles tendrán que desarrollar métodos de trabajo para mitigar esto.


Green señaló que, aunque los organizadores del REF han aclarado que el contexto, en contraposición al rendimiento absoluto, será importante en la evaluación de las declaraciones a nivel institucional, «sería útil que esto se extendiera a las declaraciones a nivel de unidad, para evitar el riesgo de una evaluación inconsistente».


Afirmó que, en su opinión, existía «un reconocimiento cada vez mayor de que evaluar el SPRE requiere conocimientos especializados», lo cual «difiere de evaluar los resultados y el impacto».


Esto podría significar que los miembros del panel necesitan una formación específica, sugirió, o que los organizadores deben plantearse «si los mismos miembros del panel deben evaluar los tres elementos». 


John Womersley, antiguo presidente ejecutivo del Consejo de Instalaciones Científicas y Tecnológicas, afirmó que el abandono del uso generalizado de métricas en la PCE podría reflejar la constatación de que este enfoque favorecería la «jerarquía arraigada» de las universidades intensivas en investigación. Según el informe piloto, las universidades más grandes tenían muchas más probabilidades de obtener una calificación de 4* en cuanto al entorno de investigación, según los datos recopilados.


«Las narrativas parecen más igualitarias», afirmó Womersley, y añadió que «los cínicos podrían señalar que quienes promueven lo que podría denominarse una agenda de «justicia social» siempre han tratado de alejar las evaluaciones de las métricas puras, como el recuento de publicaciones en revistas de gran impacto, etc.».


Una de las recomendaciones más importantes de los paneles piloto es que las declaraciones medioambientales deben contener una «autorreflexión» y centrarse en la «mejora continua» para que se consideren 4*.


Para Green, este elemento es crucial. «Un aspecto en el que la claridad será especialmente importante es que las declaraciones SPRE, tanto a nivel institucional como de unidad, deben basarse en una autoevaluación honesta, y no limitarse a presentar una imagen muy pulida y selectiva de la propuesta en cuestión».


****************************************


‘Inconsistency’ fears after REF retreat on environment metrics

Clear guidance needed on how narrative-based submissions will be graded to avoid accusations that judgements are overly subjective, say experts  

Published on January 5, 2026

Last updated January 5, 2026

Jack Grove

Twitter: @jgro_the


Limited use of metrics in the UK’s Research Excellence Framework (REF)’s revamped environment section has raised concerns about how it will be consistently evaluated.

There are fears the newly renamed “strategy, people and research environment” (SPRE) section will suffer from the same criticisms of its predecessor, “people, culture and environment” (PCE), which some felt lacked robustness, given institutions were graded on lengthy narrative-based submissions

It was hoped a pilot examining potential “indicators” covering areas such as staff training, open access and diversity might produce metrics to allow a streamlined and objective assessment.

But a report on the pilot published last month found data collection proved difficult for those participating. Some data – such as that collected for the England-only Knowledge Exchange Framework – was not available for all institutions, while collecting data for other metrics would have imposed a “significant burden” on institutions and would be “impossible to collect retrospectively”, it found. 

In addition, the relevant population for many of the research indicators was “unclear” and “might not be appropriate for all disciplines”, meaning they could “not be applied evenly across the entire exercise”.

Recommending a “much tighter framework for a full-scale REF exercise”, the report put forward only a handful of metrics for the PCE section on which there was “reasonable agreement” among panellists who assessed the pilot’s submissions. These include: longitudinal data on research staff based on sex, ethnicity and disability; pay gaps for each of these protected characteristics; numbers for newly employed early career researchers, technical support staff and staff on fixed term contracts.  

Data on how many times shared datasets are accessed or the share of research outputs published open access could also be included, adds the report.

If REF panels will again be asked to examine narrative statements supported by only a handful of data points, more thought will need to be given to how to avoid the charge that assessments might be seen “overly subjective”, said Simon Green, pro vice-chancellor (research and knowledge exchange) at the University of Salford, a panel member for the pilot’s effort to examine institutional level indicators.  

“Consistency of evaluation is key. With something as broad as SPRE, it is normal that panel members will place different emphasis on the different elements within each section,” he said, adding that panels will need to develop working methods to mitigate this.

Green said that while REF organisers had clarified that context, as opposed to absolute performance, will matter in the assessment of institution-level statements, “it would be helpful to see this extended to unit-level statements, to avoid the risk of inconsistent assessment”.  

He said he felt there was “a growing recognition that assessing SPRE requires specialist understanding” that was “different to evaluating outputs and impact”.

This might mean that specific training is needed for panel members, he suggested, or organisers may need to question “whether the same panel members should be assessing all three elements”. 

John Womersley, former executive chair of the Science and Technology Facilities Council, said the shift away from the greater use of metrics in PCE could have reflected the realisation that this approach would favour the “entrenched hierarchy” of research-intensive universities. According to the pilot report, larger universities were far more likely to be judged 4* for research environment based on the data collected.

“Narratives feel more egalitarian”, said Womersley, adding that “the cynic might note that those pushing what one might call a ‘social justice’ agenda have always tried to steer assessments away from pure metrics, like counting publications in high-impact journals and so on”.  

One of the strongest recommendations of the pilot’s panels is that environment statements should contain “self-reflection” and a focus on “continuous improvement” if they are to be deemed 4*.

For Green, this element is crucial. “One aspect on which clarity will be particularly important is that SPRE statements, both at institutional and unit levels, should be based on honest self-assessment, and not just present a highly-polished and selective picture of the submission in question.”

jack.grove@timeshighereducation.com

*********************************





viernes, 30 de enero de 2026

La ciencia en México y en Latinoamérica/ I

Publicado en CAMPUS
https://suplementocampus.com/la-ciencia-en-mexico-y-en-latinoamerica-i/?awt_a=rhgk&awt_l=kHVyqn&awt_m=gJdSA2PICZ7utgk



La ciencia en México y en Latinoamérica/ I


enero 8, 2026

Carlos Pallán


Los indicadores del sector presentados por la Unesco nos permiten medir los avances y deficiencias en nuestro país


La Organización de los Estados Iberoamericanos (OEI) y la UNESCO publicaron a fines del año pasado El Estado de la Ciencia. Principales indicadores de Ciencia y Tecnología 2025. Como se enuncia en la presentación de este texto de 139 páginas, su propósito es combinar información estadística sobre la Ciencia y la Tecnología en Iberoamérica con la “perspectiva de expertos” en sintonía con esa misma temática. La información y los análisis se centran en Iberoamérica, comprendiendo como tal al conjunto de países que integran la OEI, pero desagregando, en los cuadros y gráficas utilizados, la parte que corresponde específicamente a América Latina y el Caribe (ALyC). Se excluye, por tanto, en ese caso, a España y Portugal, cuyos avances en esas materias son superiores a ese segundo conjunto. En esta primera parte se describe, a manera de diagnóstico, algunos de los indicadores más relevantes contenidos en el documento. La próxima semana se hará un comentario en torno a todo esto.

Tres secciones principales se contienen en el texto: la “mirada anual al conjunto de indicadores”; la política de ciencia, tecnología e innovación de los países; así como una selección de la base de datos de la OEI, incluyendo aspectos de la educación superior en la región (esto último se consigna en el sitio web correspondiente). Además, integra un dossier (siete partes) en torno a la llamada computación cuántica, lo que en palabras de los editores constituye un nuevo paradigma “para el desarrollo científico y tecnológico global”.

En estas líneas me concentro sólo en algunos indicadores, aquellos que parecieron más relevantes dentro de los de ALyC, con su referencia específica a México, en tres áreas esenciales: recursos económicos, recursos humanos, productos.

Por lo que se refiere al primero, recursos económicos, los autores identifican en los últimos años un ciclo de auge y caída en la región. Entre 2005 y 2020 se dio una disminución en la inversión correspondiente, con una recuperación iniciada cinco años atrás. Así, en el transcurso de 10 años (2014-2023), ALyC tuvo un crecimiento que partió de los 63 mil millones de dólares (dólares a precios constantes, aplicando el instrumento de Paridad de Poder de Compra PPC, el cual permite comparar monedas y economías) hasta llegar en ese último año a 86 mil millones, para un incremento significativo de 33 por ciento. Brasil sobresale al haber pasado en ese mismo lapso de 40 a 53 mil millones. Mientras tanto, México decreció: de 9 mil 400 millones bajó a 8 mil 600, una baja de 9 por ciento.

En el indicador relativo al financiamiento respecto al PIB de cada país, ALyC pasó de 0.67 por ciento a 0.60. El fenómeno dominante en el decenio fue una baja. Algunos países continuaron en proporciones estables (Argentina, 0.60), y otros como el nuestro tuvieron un descenso, ya que se pasa del 0.42 del 2014 al 0.27 por ciento en 2023. Países que tuvieron incrementos relevantes fueron Uruguay (0.31 a 0.71), Paraguay (0.008 a 0.14) y Panamá (0.12 a 0.18).

El segundo grupo de indicadores, recursos humanos, puede observarse a través de dos rubros específicos. El primero se refiere a la cantidad de investigadores en la región y en el país respectivo. En el decenio, por lo que toca al conjunto, se pasó de 513 mil investigadores a 709 mil, un importante aumento: 38 por ciento. En México se partió de 45 mil en 2014 para llegar a 76 mil en 2023, un incremento relativo de 60 por ciento.

El segundo rubro, más revelador de un enfoque de equidad, es el correspondiente al “número de investigadores por cada mil habitantes integrados a la población económicamente activa”. En la región, el dato es que en ese decenio se pasó de 1.64 a 2.18 investigadores por cada mil habitantes. México partió de 0.86 investigadores en 2014 para llegar a 1.26, importante, pero superado por varios países de pequeño porte poblacional que llegan inclusive a duplicar o triplicar dicho indicador (Colombia, Panamá, Chile, Uruguay).

Por lo que corresponde al tercero de los indicadores, denominado producto, este se subdivide en dos. El primero se refiere a publicaciones científicas con base en Scopus (“Base internacional de datos y recursos fiable, independiente de las fuentes, seleccionado por expertos… líderes reconocidos en su campo”). El dato para ALyC no se proporciona, pero, en su lugar, se dan algunas apreciaciones como las siguientes: a) España encabeza ampliamente el listado con 124 mil publicaciones, seguida por Brasil, con 91 mil, Portugal (39 mil), México (33 mil). Luego vienen Chile, Colombia y Argentina con 20 mil, 18 mil y 17 mil, respectivamente; b) En casi todos los casos se registra un crecimiento significativo respecto a 2014, lo que, según los editores, evidencia una expansión sostenida de la producción científica en la región; c) en el caso de México, se partió de 23 mil publicaciones en 2014 para llegar a 33 mil, sólo superado por Brasil que casi triplica su producción (de 68 mil a 91 mil).

El segundo indicador de producto se refiere a patentes y se observan dos subdivisiones. Una es la correspondiente a patentes según país del solicitante. Este, en México, disminuyó en el período de 246 a 169 patentes. La otra es patentes otorgadas a residentes del país respectivo, en el cual México pasó de 305 a 575. En ambos casos, el peso de Brasil es dominante, ya que tuvo números de 554 y 2 mil 600, respectivamente. Como lo indica el texto de la OEI: en esta materia, los “datos reflejan una alta concentración de la capacidad de patentamiento en pocos países y un bajo desarrollo regional en materia de solicitudes…”.


Carlos Pallán

Ex secretario general ejecutivo de la Anuies | capafi2@hotmail.com | Web |  + posts

Ex rector de la Universidad Autónoma Metropolitana (Unidad Azcapotzalco), Ex secretario General Ejecutivo de la Anuies.


viernes, 26 de julio de 2024

PLOS: un nuevo indicador de Ciencia Abierta: medición del registro de estudios

Publicado en blog Universo Abierto
https://universoabierto.org/2024/07/02/un-nuevo-indicador-de-ciencia-abierta-medicion-del-registro-de-estudios/




Un nuevo indicador de Ciencia Abierta: medición del registro de estudios

PLOS. (2024, julio 1). A new Open Science Indicator: Measuring study registration. The Official PLOS Bloghttps://theplosblog.plos.org/2024/07/a-new-open-science-indicator-measuring-study-registration/

El 1 de julio de 2024, PLOS lanzó un nuevo indicador de registro de estudios, mostrando un crecimiento lento pero constante en su adopción. El conjunto de datos incluye prácticas de Ciencia Abierta como la compartición de datos y códigos, y la publicación de preprints. Se solicita retroalimentación para mejorar el indicador y asegurar su utilidad.


Con el último lanzamiento de los resultados de los Indicadores de Ciencia Abierta (OSI) de PLOS, estamos introduciendo un nuevo indicador para el registro de estudios, también conocido como preregistro. Los resultados de esta versión preliminar del indicador muestran que la adopción es menor en comparación con otros indicadores, pero está creciendo, aunque lentamente. Con el tiempo, más investigadores pueden descubrir cómo registrar y compartir públicamente el diseño de un estudio antes de conocer los resultados puede aumentar la confianza en su trabajo.

Este lanzamiento también proporciona un primer vistazo a las prácticas de Ciencia Abierta para artículos publicados en 2024, actualizando los resultados de compartición de datos, compartición de código y publicación de preprints hasta el primer trimestre de este año. El conjunto de datos completo, que se remonta a 2018 y ahora comprende 135.214 artículos, está siempre disponible de forma gratuita para acceso y reutilización.


Desarrollo del nuevo indicador

El registro de estudios ha sido identificado como una práctica prioritaria de Ciencia Abierta para monitorear en la investigación biomédica. También es un indicador de interés para los pilotos organizados por la Red de Reproducibilidad del Reino Unido, en los cuales PLOS y DataSeer están participando. Para los fines de OSI, definiendo el registro de estudios como “el plan para un estudio de investigación, incluyendo preguntas/hipótesis de investigación, detalles sobre el diseño de la investigación y/o planes para el análisis de datos, que se ha puesto a disposición para compartir públicamente con el fin de asegurar un resultado imparcial y apoyar la diferenciación de direcciones de investigación planificadas y no planificadas”.

Desde ahí, se trabaja para desarrollar un enfoque para medir el registro de estudios en la literatura científica publicada. Inicialmente se enfoca en detectar referencias a registros que recogen información estructurada sobre el diseño de un estudio, incluyendo registros de ensayos clínicos, registros de revisiones sistemáticas, registros de estudios en animales y otros registros de propósito general como Open Science Framework. Posteriormente, se emparejan identificadores persistentes y otros enlaces con los registros correspondientes.

Este enfoque—que cubre más de 30 registros—es el más completo que se ha desarrollado e implementado a escala. Pero, debido a que se basa en una lista permitida predefinida de registros (ver la declaración de métodos del indicador de registro de estudios para más información), es posible que haya registros que se pasen por alto.


¿Qué tan común es el registro de estudios?

En los últimos cinco años, las tasas de registro de estudios en PLOS han aumentado lenta pero constantemente, del 5% de los artículos en 2018 al 7% en 2023. La misma tendencia general se puede observar en el corpus comparador, con tasas que aumentan del 6% en 2018 al 7% en 2023.

El registro más utilizado por los autores de PLOS es Clinicaltrials.gov, seguido por el registro de revisiones sistemáticas PROSPERO. Pero también se puede observar por primera vez con este nuevo indicador la prevalencia de registros usando el Open Science Framework y otros registros, que cubren una amplia variedad de diseños de estudio. Los datos que se están publicando actualmente no están optimizados para segmentar por disciplina, aunque una versión anterior del conjunto de datos de OSI incluye campos de investigación para la mayoría de los artículos relevantes y planeamos compartir un análisis de los datos de registro de estudios por campo más adelante este año. Otras características que estamos considerando para este indicador incluyen detectar registros en el texto de archivos suplementarios y capturar las fechas en que se registraron y compartieron los registros.


Otros resultados y refinamientos

Los principales archivos de datos en el último conjunto de datos de OSI incluyen todos los 112,229 artículos de investigación de PLOS publicados entre el 1 de enero de 2018 y el 31 de marzo de 2024, así como un corpus comparador más pequeño. Para los artículos de PLOS, los últimos resultados muestran:

  • 31% de todos los artículos de investigación compartieron datos de investigación en un repositorio en el primer trimestre de 2024 (sin cambios desde el cuarto trimestre de 2023).
  • 17% de todos los artículos de investigación compartieron código en el primer trimestre de 2024 (un 1% más que en el cuarto trimestre de 2023).
  • 22% de todos los artículos de investigación estuvieron asociados con un preprint en el primer trimestre de 2024 (un 2% menos que en el cuarto trimestre de 2023).

La tasa de adopción de preprints en los comparadores ha sido mayor que en PLOS desde 2023, impulsada por editores con servidores de preprints internos, pero esta tasa también disminuyó en los comparadores en el primer trimestre de 2024, lo que sugiere una tendencia más amplia. Mientras tanto, se han aplicado mejoras al indicador de preprints y se han aplicado retroactivamente a todo el corpus. Se ha eliminado una fuente menor de falsos positivos y, de manera más significativa, se han eliminado los preprints publicados después de que se publicó el artículo de investigación asociado (también conocidos como “postprints”). Este cambio afecta desproporcionadamente a los artículos más antiguos, que han tenido más tiempo para acumular un postprint.

También se ha actualizado el enfoque de emparejamiento de artículos comparadores. Para esta última versión, los términos de encabezados de materias médicas (MeSH) para el nuevo trimestre de datos se han actualizado según la distribución de términos MeSH para los artículos de PLOS publicados entre el 1 de enero de 2022 y el 31 de diciembre de 2023. Se espera actualizar la distribución de términos MeSH anualmente para asegurar que la comparativa siga siendo comparable a la composición cambiante de los artículos de PLOS.


martes, 7 de mayo de 2024

EVALUACIÓN DE LA CIENCIA ABIERTA EN REVISTAS MEXICANAS

 

SciELObservatorio México de Ciencia abierta

 

El proyecto 'SciELObservatorio México' es una iniciativa desarrollada en la DGBSDI-UNAM dirigida a evaluar y promover la adopción de prácticas de Ciencia Abierta tomando como marco de referencia la colección de revistas SciELO México. Este proyecto no solo destaca por su relevancia en el ámbito académico y científico en México, sino también a nivel regional, ofreciendo una visión integral y actualizada de las políticas básicas contempladas en el movimiento de Ciencia Abierta.

El 'SciELObservatorio México' se enfoca en el estudio de la aplicación de políticas abiertas en tres ejes fundamentales: la aceptación de preprints, sobre el depósito de datos abiertos de investigación y la adopción de la revisión por pares abierta.

En porcentajes de cumplimiento, tomando como base el universo de 161 revistas vigentes de la colección, los resultados fueron:

Si bien el 'SciELObservatorio México' revela que, aunque algunas revistas han comenzado a implementar estas prácticas, aún hay un amplio margen para el crecimiento y la mejora. El estudio completo que respalda estos resultados puede consultarse aquí: Proyecto SciELObservatorio México: definición y medición de la aplicación de prácticas propuestas por la Ciencia Abierta. Los datos y las actualizaciones de recopilaciones futuras por el 'SciELObservatorio México' tendrán su propio espacio de consulta dentro del siguiente sitio web: https://www.scielo.org.mx/documentos/?pag=observatorio.

De manera complementaria, se pone a disposición la 'Guía editorial sobre los tres ejes iniciales para la Ciencia Abierta', la cual es un documento que contiene recomendaciones dirigidas a toda persona interesada en la adopción de políticas de Ciencia Abierta dentro de los rubros de uso de preprints, datos de investigación abiertos y revisión por pares abierta.

Consultas o información adicional: scielo@dgb.unam.mxscielo_mexico@dgb.unam.mx

viernes, 26 de mayo de 2023

Reporte Clarivate: "Estados Unidos es fuerte, pero ya no domina el panorama de la investigación como en el pasado"

Publicado en Research Information
https://www.researchinformation.info/news/usa-faces-increased-competition-new-economies?utm_source=adestra&utm_medium=RINewsline&utm_campaign=RI%20May%20Newsline%202023%201 


EEUU se enfrenta a una mayor competencia de las nuevas economías

27 de abril de 2023


Clarivate Plc ha publicado un informe exhaustivo del Instituto de Información Científica (ISI) que examina el impacto de la globalización en la investigación de Estados Unidos. El informe subraya la importancia de seguir invirtiendo y colaborando para mantener la posición del país como potencia líder en ciencia y tecnología.


"Tendencias de la investigación en Estados Unidos: El impacto de la globalización y la colaboración" (“U.S. research trends: The impact of globalization and collaboration”) se basa en datos de la Web of Science para analizar la trayectoria de la investigación estadounidense en los últimos 15 años. Revela que, aunque Estados Unidos sigue siendo un actor fuerte e influyente en la comunidad investigadora mundial, se enfrenta a la creciente competencia de las nuevas economías de base científica de Asia y a una red ampliada de la UE. El informe también plantea importantes cuestiones sobre cómo las inversiones anteriores han preparado a la empresa científica estadounidense para alcanzar sus objetivos.


En palabras de Jonathan Adams, Científico Jefe del Instituto de Información Científica: "Estados Unidos sigue siendo una potencia líder en ciencia y tecnología, pero ya no está sola. Tiene que reconocer su menguante capacidad nacional de investigación y trabajar de forma pragmática con competidores ingeniosos para mantener su posición."


Las principales conclusiones del informe son las siguientes:


  • La inversión en investigación en Estados Unidos, el número de estudiantes de investigación nacionales y la producción de artículos y reseñas de investigación no han crecido al mismo ritmo que en otras partes del mundo, lo que ha dado lugar a una competencia cada vez mayor.


  • La mayor parte del crecimiento de la producción de publicaciones de investigación estadounidense es atribuible a la colaboración internacional, que se ha duplicado en el caso de los principales socios tradicionales, como el Reino Unido y Alemania, y se ha cuadruplicado con China continental.


  • Las áreas de ciencias físicas y tecnología son las materias en las que Estados Unidos tiene el mayor grado de colaboración internacional y el menor componente de producción investigadora puramente nacional. China continental es el socio más frecuente de EE.UU. en investigación tecnológica y lo es tanto como el Reino Unido y Alemania en ciencias físicas.


  • La cartera de investigación de EE.UU. sigue siendo amplia y diversa, pero su diversidad de temas de investigación ha disminuido debido a que el presupuesto científico crece mucho más deprisa en biomedicina que en áreas tecnológicas.


  • La actividad investigadora de EE.UU. está desigualmente repartida por todo el país, pero EE.UU. ha tratado de abordar la concentración excesiva de sus recursos de innovación y desarrollo mediante una financiación estructurada dirigida a áreas de capacidad investigadora relativamente débil.


  • Estados Unidos es fuerte, pero ya no domina el panorama de la investigación como en el pasado. Esto se debe a que otros países del G7 están produciendo artículos con el mayor impacto de citas, mientras que ahora hay más artículos estadounidenses con un impacto de citas medio mundial.


………………………………………………………………………………………

USA 'faces increased competition from new economies'

27 April 2023


Clarivate Plc has released an in-depth report from the Institute for Scientific Information (ISI) that examines the impact of globalisation on United States research. The report emphasises the importance of continued investment and collaboration to maintain the country’s position as a leading science and technology power.

“U.S. research trends: The impact of globalization and collaboration” draws on data from the Web of Science to analyse the trajectory of U.S. research over the past 15 years. It reveals that while the U.S. remains a strong and influential player in the global research community, it faces increasing competition from new science-based economies in Asia and an expanded EU network. The report also raises important questions about how past investment has prepared the U.S. scientific enterprise to achieve its goals.

Jonathan Adams, Chief Scientist at the Institute for Scientific Information said: "The U.S. remains a leading science and technology power, but it no longer stands alone. It needs to acknowledge its shrinking domestic research capacity and work pragmatically with resourceful competitors to maintain its position.” 

Key findings of the report include:

  • U.S. research investment, domestic research student numbers, and the output of research articles and reviews have not grown at the same rate as other parts of the world, resulting in increasing competition.

  • Most growth in U.S. research publication output is attributable to international collaboration, which has doubled for major traditional partners such as the United Kingdom and Germany and quadrupled with Mainland China.

  • The physical sciences and technology areas are the subjects where the U.S. has the greatest degree of international collaboration and the smallest component of purely domestic research output. Mainland China is the U.S.’s most frequent partner in technology research and is as frequent as the U.K. and Germany in physical sciences.

  • The U.S.'s research portfolio remains extensive and diverse, but its research subject diversity has declined due to the science budget expanding much faster in biomedicine than in technology areas.

  • U.S research activity is unevenly spread across the country, but the U.S. has sought to address over-concentration of its innovation and development resources by structured funding directed to areas of relatively weak research capacity.

  • The U.S. is strong but no longer dominates the research landscape as it did in the past. This is because other G7 nations are producing papers of the highest citation impact, while more U.S. papers are now of world average citation impact.

U.S.A.: Trump exige a Harvard el pago de 1,000 millones de dólares

Publicado en Inside Higher Ed https://www.insidehighered.com/news/government/politics-elections/2026/02/03/trump-demands-harvard-pay-1-billi...