Mostrando entradas con la etiqueta Métricas. Mostrar todas las entradas
Mostrando entradas con la etiqueta Métricas. Mostrar todas las entradas

martes, 2 de mayo de 2023

LIBRO: El juego de la evaluación. Como las métricas de publicación determinan la comunicación científica

Publicado por Cambridge University Press
https://www.cambridge.org/pl/academic/subjects/physics/general-and-classical-physics/evaluation-game-how-publication-metrics-shape-scholarly-communication?format=PB


The Evaluation Game
How Publication Metrics Shape Scholarly Communication

AUTHOR: Emanuel Kulczycki, Adam Mickiewicz University, Poland
DATE PUBLISHED: April 2023
AVAILABILITY: Available
FORMAT: Paperback
ISBN: 9781009351195


£ 29.99
Paperback


La investigación científica se comunica, organiza, financia, gobierna y evalúa a través del proceso de publicación. El resultado de este proceso es un entorno académico altamente competitivo que recompensa a los investigadores por publicar grandes volúmenes, preferiblemente en revistas de alto impacto, lo que lleva a la popularizada expresión "publicar o perecer". Las universidades y otras instituciones científicas están sometidas a una presión similar, con su producción investigadora agregada bajo constante escrutinio. Este innovador texto ofrece una detallada introducción al origen y desarrollo de las métricas académicas utilizadas para medir la productividad académica, y el efecto que tienen sobre la calidad y diversidad de la investigación científica. Con su cuidadosa atención a los resultados positivos y negativos de la evaluación de la investigación y a sus distintas expresiones en todo el mundo, El juego de la evaluación guía el camino hacia una comprensión más fundamentada de las métricas y de las diversas culturas académicas a las que dan lugar.

- Ofrece una descripción exhaustiva de las transformaciones en la comunicación académica generadas por los sistemas de evaluación de la investigación y propone un replanteamiento fundamental de los valores que impulsan el mundo académico.

- Presenta el primer relato histórico de los sistemas de evaluación de la investigación en Oriente, remontándose a sus raíces en la modernización de Rusia.

- Analiza las dos trayectorias distintas de la modernización y la medición en el mundo académico, la socialista y la capitalista, lo que permite a los lectores comprender por qué los investigadores de las distintas regiones reaccionan de manera diferente ante la evaluación de la investigación.

*****************************

Scientific research is communicated, organized, financed, governed, and evaluated through the process of publication. The result of this process is a highly competitive academic environment that rewards researchers for high volume publication, preferably in high-impact journals, leading to the popularised expression 'publish or perish'. Universities and other scientific institutions are under similar pressure, with their aggregated research output being under constant scrutiny. This innovative text provides a detailed introduction to the origin and development of the scholarly metrics used to measure academic productivity, and the effect they have upon the quality and diversity of scientific research. With its careful attention to both the positive and negative outcomes of research evaluation and their distinct expressions around the globe, The Evaluation Game guides the way to a more grounded understanding of metrics, and the diverse academic cultures they give rise to.

- Provides a comprehensive account of the transformations in scholarly communication generated by research evaluation systems, and proposes a fundamental rethinking of the values that drive academia

- Presents the first historical account of research evaluation systems in the East, tracing them back to their roots in the modernization of Russia

- Discusses the two distinct trajectories of modernisation and metricization in academia, the socialist and capitalist, allowing readers to understand why researchers in different regions react differently to research evaluation

**********************************

Table of Contents
Introduction

1. Evaluation as power
2. Economization and metricization
3. Untold histories of research evaluation
4. The diversity of evaluative powers
5. Players and the stakes
6. Playing the evaluation game
Conclusions
Acknowledgements
References
Index.

lunes, 14 de noviembre de 2022

El complejo industrial de reputación de la investigación: La influencia de las empresas en el ecosistema de la investigación

Publicado en INFOTODAY
https://www.infotoday.com/OnlineSearcher/Articles/Metrics-Mashup/The-Research-ReputationIndustrial-Complex-Corporate-Influence-on-the-Research-Ecosystem-153850.shtml 



  • Las métricas de Clarivate, Elsevier y Digital Science se desarrollan esencialmente con fines competitivos, no de colaboración o complementarios. Y la competencia entre los proveedores de bases de datos se basa en la búsqueda de los dólares de suscripción de nuestras organizaciones.

  • Esto lleva preguntarse hasta qué punto estos proveedores están realmente preocupados por el mal uso de sus propias mezclas de métricas de impacto. 

  • El libro Jim Collins sobre el éxito empresarial titulado Good to Great: Why Some Companies Make the Leap ... and Others Don't (HarperCollins 2001) plantea que hay que asegurarse de que se dispone de los parámetros adecuados para medir el éxito de una organización.

  • En este sentido, Dempsey señaló que esto sólo se aplica a las organizaciones con ánimo de lucro, no a las de carácter social. Curiosamente, Collins afirma que las métricas basadas en la economía no son los mejores indicadores de la grandeza de las instituciones de investigación. En su lugar, Collins afirma que la evaluación de las organizaciones con vocación social debe enmarcarse en el contexto de la misión particular de esa organización.

  • Su resumen temático de cómo deben enfocarse estas métricas incluye algunos puntos sobre las métricas de impacto, enmarcadas con estas preguntas: [¿Hasta qué punto puede una institución reunir pruebas de que ha tenido un impacto único en el mundo que toca? Es decir, si la institución no existiera, ¿cómo sería diferente el mundo que toca?". Las métricas genéricas como el índice h y el JIF no se acercan a las métricas matizadas necesarias para comprender estos conceptos; tampoco lo harían la mayoría de las métricas de impacto de la investigación.

  • Las métricas de impacto deberían hacerse preguntas como: ¿Hasta qué punto puede una institución reunir pruebas de que ha tenido un impacto único en el mundo que toca? Es decir, si la institución no existiera, ¿cómo sería diferente el mundo que toca?". Las métricas genéricas como el índice h y el JIF no se acercan a las métricas matizadas necesarias para comprender estos conceptos; tampoco lo harían la mayoría de las métricas de impacto de la investigación.

  • Para empezar a crear un sistema de medición significativo se necesita una comprensión clara de la misión de investigación de la organización. Incluso entonces, las métricas desarrolladas serían probablemente específicas de la institución, y a menudo sólo medirían los subproductos del impacto. La comparación del impacto es difícil y a veces puede ser muy subjetiva. Las comparaciones de métricas de tamaño único aplicadas a instituciones (o investigadores o laboratorios) pueden ser tan engañosas como una comparación del JIF para revistas de diferentes disciplinas.

  • SESGO EN LA INVESTIGACIÓN FINANCIADA POR LA INDUSTRIA: La preocupación por la parcialidad de los resultados de la investigación financiada o patrocinada por la industria no es nueva. Sirve el patrocinio de un proyecto de investigación para reforzar la prioridad, los objetivos y las metas del patrocinador? Una revisión de alcance de 2018 en el American Journal of Public Health analizó 36 estudios y concluyó: "Los estudios patrocinados por la industria tienden a estar sesgados a favor de los productos del patrocinador" (Fabbri, Alice, Alexandria Lai, Quinn Grundy, Lisa Anne Bero, "The Influence of Industry Sponsorship on the Research Agenda: A Scoping Review", American Journal of Public Health, v. 108, nº 11; 1 de noviembre de 2018; pp. e9-e16; doi.org/10.2105/AJPH.2018.304677).

  • Si la financiación de la industria puede empañar el resultado de los estudios de investigación, ¿cómo afecta el hecho de que sean entidades con ánimo de lucro las que proporcionen las métricas de impacto a la percepción del valor de un determinado resultado de investigación (en forma de artículo de revista revisada por pares)? 

  • Web of Science, Dimensions y Scopus son productos que compiten entre sí y que Clarivate, Digital Scholar y Elsevier intentan vendernos como el mejor medio para demostrar el impacto de la investigación. 

  • Las bases de datos de citas se basan en diferentes conjuntos de datos de publicaciones y calculan diferentes valores para la misma métrica (por ejemplo, el recuento de citas o el índice h). Del mismo modo, cada proveedor tiene métricas ligeramente diferentes que sirven para fines idénticos. 

  • ¿Es el Article Influence Score del Journal Citation Reports de Clarivate "mejor" o más informativo que el Scimago Journal Rank de Scopus? Ambas métricas a nivel de revista son ratios que parecen ser una consecuencia del factor de impacto de la revista (JIF). Ambas utilizan el análisis de vectores propios para ponderar los recuentos de citas en el numerador y obtener la puntuación (jcr.help.clarivate.com/Content/glossary-article-influence-score.htmscimagojr.com/files/SJR2.pdf). Los cálculos del denominador difieren, pero ambos se basan en el número de publicaciones. Los plazos son diferentes (5 años para AIS, 3 para SJR), y los conjuntos de datos son diferentes.


El complejo industrial de reputación de la investigación: La influencia de las empresas en el ecosistema de la investigación

Por Elaine M. Lasda

Volumen 46, Número 4 - Julio/Agosto 2022

Me atreví a viajar en avión en COVID America para asistir a la reunión de otoño de 2021 de la Coalition for Networked Information (CNI), que tuvo lugar los días 13 y 14 de diciembre en Washington, D.C. (cni.org/events/membership-meetings/past-meetings/fall-2021). En la sesión plenaria de apertura, el director del CNI, Clifford Lynch, habló de la topografía de los nuevos avances y tendencias que ve en el amplio terreno de la investigación y la academia. Aunque la charla fue interesante, durante la parte de preguntas y respuestas, una pregunta sobre los indicadores de impacto de la investigación despertó mi interés, ya que quien la formuló utilizó el término "complejo industrial de reputación de la investigación" para describir la excesiva dependencia de métricas e indicadores simplistas en los procesos de evaluación de la investigación.

Resulta que quien utilizó esa frase en su pregunta fue nada menos que la lumbrera de las bibliotecas Lorcan Dempsey, un prodigioso pensador en la profesión de la información con una larga carrera en OCLC. Dempsey tuvo la amabilidad de concederme algo de su tiempo para discutir cuestiones relacionadas con la generación y el perfeccionamiento de las métricas de impacto de la investigación por parte de entidades con fines de lucro, concretamente Elsevier, Clarivate y Digital Science. Dempsey sugirió que los profesionales de la información y los bibliotecarios deberían cuestionar los motivos de los actores comerciales y su papel en la evaluación de la investigación. Dempsey me dejó claro que es un mero observador y que no es en absoluto un experto en cienciometría o en evaluación de la investigación, pero me pareció que su argumento merecía ser reflexionado.


SESGO EN LA INVESTIGACIÓN FINANCIADA POR LA INDUSTRIA

La preocupación por la parcialidad de los resultados de la investigación financiada o patrocinada por la industria no es nueva. Sirve el patrocinio de un proyecto de investigación para reforzar la prioridad, los objetivos y las metas del patrocinador? Una revisión de alcance de 2018 en el American Journal of Public Health analizó 36 estudios y concluyó: "Los estudios patrocinados por la industria tienden a estar sesgados a favor de los productos del patrocinador" (Fabbri, Alice, Alexandria Lai, Quinn Grundy, Lisa Anne Bero, "The Influence of Industry Sponsorship on the Research Agenda: A Scoping Review", American Journal of Public Health, v. 108, nº 11; 1 de noviembre de 2018; pp. e9-e16; doi.org/10.2105/AJPH.2018.304677).

Si la financiación de la industria puede empañar el resultado de los estudios de investigación, ¿cómo afecta el hecho de que sean entidades con ánimo de lucro las que proporcionen las métricas de impacto a la percepción del valor de un determinado resultado de investigación (en forma de artículo de revista revisada por pares)? Sabemos que la mayoría de los indicadores de impacto de la investigación son insuficientes para la evaluación de la investigación cuando se utilizan como métrica independiente. Muchos de estos indicadores se utilizan mal, se malinterpretan o se aplican erróneamente en diversos contextos. Web of Science, Dimensions y Scopus son productos que compiten entre sí y que Clarivate, Digital Scholar y Elsevier intentan vendernos como el mejor medio para demostrar el impacto de la investigación. 


¿QUÉ SABOR TIENE SU MÉTRICA?

Las bases de datos de citas se basan en diferentes conjuntos de datos de publicaciones y calculan diferentes valores para la misma métrica (por ejemplo, el recuento de citas o el índice h). Del mismo modo, cada proveedor tiene métricas ligeramente diferentes que sirven para fines idénticos. A veces he bromeado sobre este fenómeno de la preferencia de las herramientas de medición de citas basado en el reconocimiento de la marca. Antes de que Dimensions entrara en escena, comparaba las herramientas con las galletas: Web of Science es la Oreo, Scopus es la Hydrox y Google Scholar es la marca genérica de las bases de datos de citas. Llevando la analogía más allá, cada uno tiene su galleta preferida y la elige en función de la necesidad o los valores. ¿Vale la pena pagar el precio extra de una Oreo en lugar de una Hydrox o una galleta genérica? El paquete de la marca de la tienda tiene un mayor número de galletas, pero ¿son de la misma calidad que las galletas de marca?

Ya se ha hecho una idea. El valor de las métricas de citación a veces puede ser simplemente la percepción de las características de marca anunciadas o promocionadas por el proveedor que creó la métrica. Me vienen a la mente características como la calidad de las referencias citadas, el alto número de citas o la cobertura de revistas curadas.

¿Es el Article Influence Score del Journal Citation Reports de Clarivate "mejor" o más informativo que el Scimago Journal Rank de Scopus? Ambas métricas a nivel de revista son ratios que parecen ser una consecuencia del factor de impacto de la revista (JIF). Ambas utilizan el análisis de vectores propios para ponderar los recuentos de citas en el numerador y obtener la puntuación (jcr.help.clarivate.com/Content/glossary-article-influence-score.htmscimagojr.com/files/SJR2.pdf). Los cálculos del denominador difieren, pero ambos se basan en el número de publicaciones. Los plazos son diferentes (5 años para AIS, 3 para SJR), y los conjuntos de datos son diferentes.

Las clasificaciones categóricas de los títulos de las revistas cambian un poco en cada cálculo, pero en general, el AIS y el SJR están muy correlacionados. Entonces, ¿tenemos métricas con sabor a chocolate y vainilla, que proporcionan combinaciones de sabores complementarias? Dejando la analogía de las galletas para los sabores de los helados, a mí me parece más bien la diferencia entre el estilo Filadelfia y la vainilla francesa. Se puede preferir uno sobre el otro, pero al final, siguen siendo relativamente intercambiables en términos de sabor. La diferencia es un matiz, y no estoy seguro de que este matiz sea sustantivo para la mayoría de los fines de evaluación.


EL ÁNIMO DE LUCRO Y EL DESARROLLO DE LAS MÉTRICAS

La cuestión es que las métricas de Clarivate, Elsevier y Digital Science se desarrollan esencialmente con fines competitivos, no de colaboración o complementarios. Y la competencia entre los proveedores de bases de datos se basa en la búsqueda de los dólares de suscripción de nuestras organizaciones. Esto me lleva a preguntarme hasta qué punto estos proveedores están realmente preocupados por el mal uso de sus propias mezclas de métricas de impacto. Dempsey planteó un buen punto sobre las clasificaciones institucionales populares: Times Higher Education utiliza datos de Elsevier (vea este vídeo de relaciones públicas: youtube.com/watch?v=-_Lj4KgEqqE). U.S. News and World Report utiliza datos de InCites de Clarivate 

(usnews.com/education/best-global-universities/articles/methodology). Apuesto a que estas fuentes de noticias pagan mucho dinero por el privilegio de utilizar los datos suministrados por los proveedores. 

Dempsey y yo también hablamos de un libro de 2001 de Jim Collins sobre el éxito empresarial titulado Good to Great: Why Some Companies Make the Leap ... and Others Don't (HarperCollins). Uno de los puntos clave de este libro es asegurarse de que se dispone de los parámetros adecuados para medir el éxito de una organización. Dempsey señaló que esto sólo se aplica a las organizaciones con ánimo de lucro, no a las de carácter social. Curiosamente, el propio Collins lo reconoce en un artículo publicado en 2004 en el Forum for the Future of Higher Education del MIT (library.educause.edu/resources/2004/1/getting-from-good-to-great-in-higher-education). En él, afirma que las métricas basadas en la economía no son los mejores indicadores de la grandeza de las instituciones de investigación. En su lugar, Collins afirma que la evaluación de las organizaciones con vocación social debe enmarcarse en el contexto de la misión particular de esa organización.

Su resumen temático de cómo deben enfocarse estas métricas incluye algunos puntos sobre las métricas de impacto, enmarcadas con estas preguntas: [¿Hasta qué punto puede una institución reunir pruebas de que ha tenido un impacto único en el mundo que toca? Es decir, si la institución no existiera, ¿cómo sería diferente el mundo que toca?". Las métricas genéricas como el índice h y el JIF no se acercan a las métricas matizadas necesarias para comprender estos conceptos; tampoco lo harían la mayoría de las métricas de impacto de la investigación.

Para empezar a crear un sistema de medición significativo se necesita una comprensión clara de la misión de investigación de la organización. Incluso entonces, las métricas desarrolladas serían probablemente específicas de la institución, y a menudo sólo medirían los subproductos del impacto. La comparación del impacto es difícil y a veces puede ser muy subjetiva. Las comparaciones de métricas de tamaño único aplicadas a instituciones (o investigadores o laboratorios) pueden ser tan engañosas como una comparación del JIF para revistas de diferentes disciplinas. 

La mayoría de los proveedores tienen grupos de reflexión afiliados que reflexionan y estudian estas cuestiones y proponen soluciones a los dilemas del impacto de la investigación. Por ejemplo, Clarivate ha resucitado el Instituto de Información Científica (ISI) y lo ha reconvertido en un centro de reflexión sobre la cienciometría y el impacto de la investigación (clarivate.com/webofsciencegroup/solutions/isi-institute-for-scientific-information). Elsevier tiene una entidad competidora: El Centro Internacional para el Estudio de la Investigación (ICSR; elsevier.com/icsr). Digital Science no tiene un instituto con marca propia, pero también tiene una colección de artículos de opinión e investigación sobre, bueno, investigación en un subsitio de su presencia en la web titulado:  “Challenges” (digital-science.com/challenges). 

En general, los documentos e informes de cada una de estas entidades me parecen útiles. Me parecen esfuerzos diligentes, en contraposición a las piezas de relaciones públicas. No obstante, informes como "Profiles Not Metrics" de ISI, uno de mis favoritos (clarivate.com/webofsciencegroup/campaigns/profiles-not-metrics), están diseñados para hacer avanzar el debate sobre las métricas de impacto al tiempo que preservan la integridad y la reputación de sus empresas patrocinadoras.

Y aquí vuelvo a la cuestión de que la investigación financiada por las empresas llega a conclusiones que validan la eficacia, la seguridad y el éxito de la producción de esa empresa.  No es de extrañar que los observadores inteligentes caractericen toda la caja de Pandora como un complejo de reputación/industrial de la investigación.

*********************

The Research Reputation-Industrial Complex: Corporate Influence on the Research Ecosystem

By Elaine M. Lasda

Volume 46, Number 4 - July/August 2022

I braved airline travel in COVID America to attend the fall 2021 meeting of the Coalition for Networked Information (CNI), which took place Dec. 13–14 in Washington, D.C. (cni.org/events/membership-meetings/past-meetings/fall-2021). At the opening plenary session, the forward-looking head of CNI, Clifford Lynch, talked about a topography of emerging advances and trends he sees in the broad terrain of research and scholarship. While the talk was interesting, during the Q&A portion, a question about research impact indicators particularly piqued my interest because the questioner used the term “research reputation-industrial complex” to describe the overreliance on simplistic metrics and indicators in research evaluation processes.

As it happened, using that phrase in his question was none other than library luminary Lorcan Dempsey, a prodigious thinker in the information profession with a longtime career at OCLC. Dempsey was gracious enough to give me some of his time to discuss issues related to the generation and refinement of research impact metrics by for-profit entities, namely Elsevier, Clarivate, and Digital Science. Dempsey suggested that info pros and librarians should question the motives of commercial players and their roles in research evaluation. Dempsey made it clear to me that he is merely an observer and by no means an expert in scientometrics or research evaluation, yet I thought his point merited pondering. 

BIAS IN INDUSTRY-FUNDED RESEARCH

Concerns of bias in the outcomes or results of industry-funded/sponsored research are not new. Does sponsorship of a research project serve to reinforce the priority, aims, and goals of the sponsor? A 2018 scoping review in the American Journal of Public Health analyzed 36 studies and concluded, “Industry-sponsored studies tend to be biased in favor of the sponsor’s products” (Fabbri, Alice, Alexandria Lai, Quinn Grundy, Lisa Anne Bero, “The Influence of Industry Sponsorship on the Research Agenda: A Scoping Review,” American Journal of Public Health, v. 108, no. 11; Nov. 1, 2018; pp. e9–e16; doi.org/10.2105/AJPH.2018.304677).

If industry funding can taint the outcome of research studies, how does the fact that it is for-profit entities providing impact metrics affect the perception of value of a given research output (in the form of a peer-reviewed journal article)? We know most research impact indicators are insufficient for research evaluation purposes when used as a standalone metric. Many such indicators are misused, misunderstood, or misapplied in a variety of contexts. Web of Science, Dimensions, and Scopus are competing products that Clarivate, Digital Scholar, and Elsevier are trying to sell us as the best means of demonstrating research impact. 

WHAT FLAVOR IS YOUR METRIC?

Citation databases draw from different publication datasets and calculate different values for the same metric (for example, citation count or h-index). Likewise, each vendor has slightly different metrics meant to serve identical purposes. I have sometimes joked about this phenomenon of citation metrics tool preference being based on brand recognition. Prior to Dimensions coming on the scene, I would liken the tools to cookies: Web of Science is the Oreo, Scopus is the Hydrox, and Google Scholar is the generic store brand of citation databases. Carrying the analogy further, everyone has their preferred cookie and chooses it based on necessity or values. Is an Oreo really worth the extra price over the Hydrox or generic cookie? You get a higher cookie count from the store brand package, but are the cookies of the same quality as the brand-name cookie counterparts?

You get the idea. The value in citation metrics can sometimes merely be the perception of brand-name characteristics advertised or promoted by the vendor that created the metric. Characteristics like cited reference quality, high citation count, or curated journal coverage come to mind.

Is the Article Influence Score from Clarivate’s Journal Citation Reports “better” or more informative than Scopus’s Scimago Journal Rank? Both journal-level metrics are ratios that seem to be outgrowths of the journal impact factor (JIF). They both use eigenvector analysis to weight the citation counts in the numerator to derive the score (jcr.help.clarivate.com/Content/glossary-article-influence-score.htmscimagojr.com/files/SJR2.pdf). The denominator calculations differ, but both are based on publication count. The time frames are different (5 years for AIS, 3 for SJR), and the datasets are different. 

The categorical rankings of journal titles do shift somewhat under each calculation, but generally, the AIS and the SJR are highly correlated. So are we getting chocolate-and-vanilla-flavored metrics, providing complementary flavor combinations? Dropping the cookie analogy for ice cream flavors, to me it seems more like the difference between Philadelphia-style vs French vanilla. You may have a preference of one over the other, but in the end, they are still relatively interchangeable in terms of flavor. The difference is nuanced, and I am not sure that this nuance is substantive for most evaluative purposes.

PROFIT MOTIVE AND METRIC DEVELOPMENT

The point is that the metrics from Clarivate, Elsevier, and Digital Science are essentially developed for competitive, not collaborative or complementary, purposes. And the competition between the database vendors is based on pursuit of our organizations’ subscription dollars. This leads me to wonder how genuinely concerned these vendors are in relation to misuse of their own proprietary blends of impact metrics. Dempsey raised a good point about popular institutional rankings: Times Higher Education uses Elsevier data (get a load of this PR video: youtube.com/watch?v=-_Lj4KgEqqE). U.S. News and World Report uses data from Clarivate’s InCites (usnews.com/education/best-global-universities/articles/methodology). I bet these news sources pay big money for the privilege of using the data supplied by the vendors. 

Dempsey and I also discussed a 2001 book about business success by Jim Collins called Good to Great: Why Some Companies Make the Leap ... and Others Don’t (HarperCollins). One of the key thrusts of this book is to make certain you have the right metrics by which to gauge an organization’s success. Dempsey noted that this is only applies to profit-driven, not socially driven, organizations. Interestingly, Collins himself acknowledges this in a 2004 article in MIT’s Forum for the Future of Higher Education (library.educause.edu/resources/2004/1/getting-from-good-to-great-in-higher-education). In it, he states that economic-based metrics are not the best indicators of research institution greatness. Instead, Collins says, evaluation of socially driven organizations should be framed within the context of that organization’s particular mission.

His thematic overview of how these metrics should be approached includes some points on metrics of impact, framed with these questions: [T]o what extent can an institution marshal evidence that it has had a unique impact on the world it touches? That is, if the institution didn’t exist, how would the world it touches be different?” Generic metrics like h-index and JIF do not come close to the nuanced metrics needed to get a grasp on these concepts; neither would most research impact metrics. 

A crystal-clear understanding of the organization’s research mission is needed to begin to create a meaningful metrics dashboard. Even then, the metrics developed would likely be institution-specific, and often would only measure the byproducts of impact. Comparing impact is squishy and may at times be highly subjective. Apples to apples comparisons of one-size-fits-all metrics applied to institutions (or researchers or laboratories) can be as misrepresenting as a comparison of the JIF for journals in differing disciplines.

Most vendors have affiliated think tanks that ponder and study these issues and propose solutions to research impact quandaries. For example, Clarivate resurrected the Institute for Scientific Information (ISI) and repurposed it as a scientometrics and research impact thought center (clarivate.com/webofsciencegroup/solutions/isi-institute-for-scientific-information). Elsevier has a competing entity: The International Center for the Study of Research (ICSR; elsevier.com/icsr). Digital Science doesn’t have a separately branded institute, but it, too, has a collection of thought pieces and research about, well, research on a subsite of its web presence titled: “Challenges” (digital-science.com/challenges).  

I generally find the papers and reports from each of these entities helpful. They seem to me to be diligent efforts, as opposed to public relations pieces. Nonetheless, reports such as “Profiles Not Metrics” from ISI, one of my favorites (clarivate.com/webofsciencegroup/campaigns/profiles-not-metrics), are designed to move the impact metric discussion forward while preserving the integrity and reputation of their sponsor companies.

And here I find myself back to the point about corporate-funded research arriving at conclusions that validate the efficacy, safety, and success of that corporation’s output.  No wonder smart observers are characterizing the whole can of worms as a research reputation/industrial complex.

***************

martes, 26 de julio de 2022

LIBRO próximamente a la venta: La academia cuantificada. Como la evaluación de la investigación transformó la ciencia social británica

 

A la venta en: https://cup.columbia.edu/book/the-quantified-scholar/9780231197816





The Quantified Scholar. How Research Evaluations Transformed the British Social Sciences

Juan Pablo Pardo-Guerra

Columbia University Press

Desde 1986, el gobierno británico, ante la disminución de los presupuestos y la creciente demanda de responsabilidad pública, ha intentado evaluar el valor del trabajo académico en las universidades del país. Los administradores han evaluado periódicamente la investigación de la mayoría de los académicos a tiempo completo empleados en las universidades británicas, tratando de distribuir los fondos, cada vez más escasos, entre aquellos que mejor los utilizan. ¿Cómo cambian estos intentos de cuantificar el valor del conocimiento la naturaleza de la academia?

Juan Pablo Pardo-Guerra examina los efectos de las evaluaciones cuantitativas de la investigación en los científicos sociales británicos, argumentando que la misión de medir la excelencia académica resultó en menos diversidad y más conformidad disciplinaria. Combinando entrevistas y análisis computacionales originales, The Quantified Scholar ofrece un relato convincente de cómo las puntuaciones, las métricas y las evaluaciones estandarizadas de la investigación alteraron los incentivos de los científicos y los administradores al premiar las formas de academia más cercanas a los cánones disciplinarios establecidos. Al hacerlo, las evaluaciones de la investigación amplificaron las jerarquías de publicación y las formas de prestigio académico de larga data en detrimento de la diversidad. De forma lenta pero segura, remodelaron los departamentos académicos, los intereses de los académicos, la organización de las disciplinas y las condiciones de empleo de los investigadores.

Al criticar los efectos de la cuantificación en el lugar de trabajo, este libro también presenta alternativas a las formas de evaluación existentes, y reclama nuevas formas de solidaridad profesional que puedan desafiar la arraigada desigualdad en el mundo académico.

-------------------------------------------------------------------
Since 1986, the British government, faced with dwindling budgets and growing calls for public accountability, has sought to assess the value of scholarly work in the nation’s universities. Administrators have periodically evaluated the research of most full-time academics employed in British universities, seeking to distribute increasingly scarce funding to those who use it best. How do such attempts to quantify the worth of knowledge change the nature of scholarship?

Juan Pablo Pardo-Guerra examines the effects of quantitative research evaluations on British social scientists, arguing that the mission to measure academic excellence resulted in less diversity and more disciplinary conformity. Combining interviews and original computational analyses, The Quantified Scholar provides a compelling account of how scores, metrics, and standardized research evaluations altered the incentives of scientists and administrators by rewarding forms of scholarship that were closer to established disciplinary canons. In doing so, research evaluations amplified publication hierarchies and long-standing forms of academic prestige to the detriment of diversity. Slowly but surely, they reshaped academic departments, the interests of scholars, the organization of disciplines, and the employment conditions of researchers.

Critiquing the effects of quantification on the workplace, this book also presents alternatives to existing forms of evaluation, calling for new forms of vocational solidarity that can challenge entrenched inequality in academia.


ABOUT THE AUTHOR
Juan Pablo Pardo-Guerra is associate professor of sociology at the University of California, San Diego. He is the author of Automating Finance: Infrastructures, Engineers, and the Making of Electronic Markets (2019).

miércoles, 29 de junio de 2022

EUROPA: Golpe de timón para cambiar la evaluación científica

Publicado en Blok de Bid
https://www.ub.edu/blokdebid/es/node/1214


Un golpe de timón para cambiar la evaluación científica

Ángel M. Delgado-Vázquez
Jefe de Servicio de Soporte al Aprendizaje y la Investigación
Biblioteca/CRAI
Universidad Pablo de Olavide
ORCID: 0000-0003-2461-8553
@amdelvaz

Towards a reform of the research assessment system: scoping report (2021). European Commission, Directorate-General for Research and Innovation. Luxembourg: Publications Office of the European Union. 21 p. Disponible en: <https://data.europa.eu/doi/10.2777/707440>. [Consulta: 29/06/2022].

Plega a Dios, Sancho, que así sea, porque del dicho al hecho hay gran trecho.

El pasado noviembre la Comisión Europea, a través de la Dirección General para la Investigación y la Innovación hizo público un documento que, bajo el sugerente título de Towards a reform of the research assessment system, pone sobre la mesa algunas de las cuestiones sobre las que se viene debatiendo en los últimos tiempos de manera intensa. La principal motivación de este es la necesidad de impulsar una aceleración de los cambios que en el sistema de evaluación científica se vienen produciendo, aunque todavía de manera tímida. El otro objetivo es el de contar con un marco común que pueda de algún modo homogeneizar el modo en que se evalúa a la ciencia, a la par que se abandonan algunas de las prácticas actuales y que vienen siendo objeto continuado de crítica por sus limitaciones y sesgos.

El documento, fruto de las consultas llevadas a cabo con distintos agentes (listado completo en el propio documento), durante 2021, parte de reconocer los cambios profundos que los modos de producción, diseminación y consumo de la investigación, debidos sobre todo a la digitalización y a la adopción de prácticas de ciencia abierta, no están encontrando ecos en la manera en la que el esfuerzo de instituciones, grupos, proyectos e investigadores está siendo medido y recompensado. Literalmente vuelve sobre un aserto que, habiéndose manifestado en numerosas ocasiones, no ha logrado evidenciarse en la suficiente medida en las organizaciones, agencias, instituciones e incluso en los propios individuos sobre los que recae la tarea de evaluar. Literalmente: These major evolutions are not aligned with the metrics that often dominate assessment: the number of publications and citations, and the quantity of publications in journals with high Journal Impact Factor (JIF). The race for publications – the so-called publish-or-perish culture – comes at the expense of quality, integrity, and trust in research. Also, using the JIF as a proxy for quality of research is shown to be inappropriate. Despite this, moving away from the use of JIF is non-trivial because it is easy to use and is engrained in academic culture, conferring prestige to authors and their institutions publishing in high JIF journals; whereas additional efforts may be required by alternatives such as more qualitative assessment methods.

Como puede observarse, se vuelve a poner el foco sobre la necesidad de abandonar la evaluación acumulativa y, con especial énfasis, en las métricas de revistas, las llamadas journal level metrics, con el Journal Impact Factor como principal actor. El documento toma como ejemplo la evaluación curricular individual, en la que la evaluación por pares es un elemento fundamental, y reconoce como necesario partir de la evaluación cualitativa que debe ser complementada, en la medida de lo necesario, del uso responsable de indicadores cuantitativos. Este tipo de evaluaciones debe incorporar, además, otro tipo de resultados, más allá de las publicaciones y reconocer la existencia de tipos de carreras académicas fuera del estándar.

Ahondando en la diversidad, el documento se refiere a tener muy en cuenta, ya no solo las diferentes actividades, productos y roles que contribuyen de manera efectiva al desarrollo de la investigación científica, sino también a las diferencias entre disciplinas, países, modos de hacer ciencia y objetos de evaluación. 

El documento aboga por servir de base para la construcción de un sistema de evaluación que se adapte tanto a estas diferencias como a las distintas necesidades de las instituciones, respetando su autonomía, y que, sin embargo, posibilite la interoperabilidad y facilite, entre otras, la movilidad. 

Tras hacer repaso de las distintas iniciativas y regulaciones puestas en marcha en el seno de la Unión Europea en los últimos años, se hace a continuación una propuesta de acción que consiste en lo básico, en una llamada a las organizaciones encargadas de la financiación, la creación y la evaluación de la investigación, a firmar un acuerdo y formar una alianza que abogue por la aceleración de la adopción de una serie de medidas que van en el camino, antes señalado, de implementar un sistema diferente de evaluación de las actividades y los agentes que hacen posible el avance de la ciencia.

Para ello se proponen una serie de medidas de acompañamiento, como son la dotación económica por parte de gobiernos y organizaciones de financiación de la investigación para poder hacer efectivos dichos cambios; campañas de concienciación y formación para investigadores e instituciones; la participación de alianzas de universidades como campo de pruebas; y el desarrollo de medidas políticas a distintos niveles para salvar las barreras legales.

El acuerdo estaría fundado sobre los principios generales de cumplir con las prácticas y reglas éticas y de integridad; salvaguardar la libertad de la investigación científica; respetar la autonomía de las organizaciones de investigación; y el aseguramiento de la independencia y transparencia de los datos, infraestructuras y criterios necesarios para la evaluación científica, especialmente la recolección de datos, los algoritmos y el cálculo de indicadores, asegurando su control y propiedad por parte de la comunidad investigadora.

En lo que atañe a los criterios y procesos de evaluación, se establecen como básicos los principios de enfocar la evaluación hacia la calidad de los resultados (más que la cantidad), poner el foco en la apertura de la investigación, incluyendo métodos y datos, que los hagan transparentes y reproducibles; llevar a cabo procesos de evaluación por pares donde lo cuantitativo se use solo de manera complementaria cuando sea necesaria, no por defecto; reconocer el impacto de la investigación más allá de la propia comunidad científica, tomando en consideración el impacto en la sociedad, en el ámbito económico o tecnológico, y teniendo presente que estos impactos pueden tardar más o menos en llegar, dependiendo de la disciplina.

En línea con lo anterior, se señala la necesidad de valorar positivamente la diversidad de actividades y prácticas científicas, así como los diferentes resultados que pueden producir y con especial interés sobre aquellas que sustentan la ciencia abierta. Igualmente, reconocer que los investigadores no pueden rendir del mismo modo en todas las parcelas de su actividad. Usar criterios de evaluación y procesos acordes con la variedad de disciplinas, tipos de investigación y momento de la carrera investigadora; valorar y reconocer los distintos papeles que se pueden jugar en la investigación, reconociendo el trabajo en equipo y la colaboración. 

Finalmente, asegurar la igualdad de género y oportunidades y hacer la ciencia más inclusiva, tanto entre quienes la hacen, como en sus resultados.

El documento propone una hoja de ruta para las entidades firmantes que pasa por alinear sus evaluaciones de la investigación a los principios anteriormente enunciados; promover una evaluación de alta calidad, evolutiva, autorreflexiva y usada de forma inteligente; reconocer y recompensar la evaluación por pares; destinar recursos suficientes para esta tarea; y, finalmente, compartir prácticas y experiencias, lecciones aprendidas de este cambio de enfoque de la evaluación.

Lejos de tratarse de uno de esos documentos oficiales que quedan arrinconados en el último cajón del escritorio, en el caso de este se ha seguido un camino que le ha llevado a ser presentado en febrero de 2022 en la Paris Open Science European Conference (OSEC). En este marco se inició un proceso de adhesión a una posible coalición de soporte, habiendo manifestado su interés, hasta mayo pasado, más de 300 organizaciones internacionales, y de países principalmente europeos. 

En España han firmado el documento organismos de primer orden en la evaluación científica nacional como la Agencia Estatal de Investigación o la ANECA, a las que acompañan el Consejo Superior de Investigaciones Científicas (CSIC) y la Conferencia de Rectores de las Universidades Españolas (CRUE). No obstante, son pocas las universidades firmantes (no llegan a dos decenas) y el papel de las agencias y administraciones autonómicas, las sociedades científicas y los organismos privados de financiación es prácticamente testimonial, y a pesar de ello España es el segundo país con más firmantes. 

Es obvio que, aunque es probable que con este documento se dé un nuevo impulso al necesario cambio de modelo en la evaluación científica, también lo es que más de una organización firmante no muestre mayor interés en la propia firma que el de «salir en la foto».

viernes, 25 de marzo de 2022

Indicadores Dialnet: no todo es IDR en Dialnet Métricas

Publicado en Investiga UNED
https://investigauned.uned.es/indicadores-dialnet-no-todo-es-idr-en-dialnet-metricas/



Indicadores Dialnet: no todo es IDR en Dialnet Métricas

por Elodia Hernández | Mar 25, 2022

Tradicionalmente, en las Ciencias Sociales, Jurídicas y Humanidades, los canales para publicar los resultados de la investigación se diversifican; es decir, se publica tanto en revistas como en libros. A esto se añade que el ámbito geográfico es más reducido ─nacional o regional─ y que la ventana de citación es mucho más amplia ─es habitual que una publicación siga siendo citada mucho después de ser publicada─. Como consecuencia, los autores y publicaciones españoles o hispanoamericanos de estas áreas del conocimiento no están justamente representados en índices o bases de datos internacionales, más centrados en el ámbito anglosajón y en ciencia y tecnología.

Esto otorga a Dialnet Métricas un enorme valor, dado que su objetivo es recoger y analizar las publicaciones citadas en obras contenidas en Dialnet, de manera que facilita a investigadores y evaluadores indicadores que hasta hace poco estaban difícilmente disponibles.

Dialnet Métricas es un proyecto en proceso de evolución continua. En post anteriores de este blog, hemos hablado del IDR, el índice de impacto calculado para una selección de revistas españolas. En esta ocasión, en cambio, queremos presentaros la enorme cantidad de información disponible en “Indicadores Dialnet”, destacando especialmente la referida a los investigadores.

En los Indicadores Dialnet, se incluyen diferentes rankings de investigadores y publicaciones: investigadores más citados, investigadores por áreas de conocimiento, investigadores por Universidades, publicaciones más citadas, referencias bibliográficas por años. En este caso, estos rankings incluyen el contenido completo de la base de datos de Dialnet, no solo de las revistas fuente (a diferencia del IDR).

Si accedemos al espacio de un determinado autor, encontraremos importante información: número de publicaciones, número de citas, percentil en su disciplina, índice h, promedio de citas… a lo que se unen varios gráficos que ilustran toda la información disponible sobre este autor.



Indicadores Dialnet de investigadora de la UNED

Por todo ello, Dialnet Métricas se convierte en un utilísimo recurso para agencias de evaluación, responsables editoriales, investigadores y universidades, al contar con información mucho más completa de investigadores de algunas áreas para los que hasta la aparición de esta herramienta era muy difícil encontrar.

lunes, 27 de diciembre de 2021

La Universidad Cínica: ludopatía, control cuantificado, economía moral neoliberal del fraude y mercantilización criminógena del mundo académico

Disponible en: https://oda.oslomet.no/oda-xmlui/handle/11250/2833210


La Universidad Cínica: La subjetividad gamificada en el mundo académico noruego
Kuldova, Tereza Østbø

Originalversjon
Ephemera : Teoría y política de la organización. 2021, 21 (3), 43-71http://www.ephemerajournal.org/contribution/cynical-university-gamified-subjectivity-norwegian-academia

Sammendrag
El mundo académico noruego está cada vez más sometido a la gobernanza por números. Una mezcla de Nueva Gestión Pública, gobierno corporativo y el poder que ejercen las empresas de consultoría de gestión sustenta este "triunfo de los números" que pretende estimular la competencia, la productividad y la excelencia. Sin embargo, la desilusión, la individualización, la inseguridad, la ansiedad y la envidia se han convertido en sus productos. Pocos creen que las métricas sean neutrales, imparciales u objetivas. Por el contrario, están muy extendidas las prácticas individuales e institucionales de jugar con las estadísticas y manipular las calificaciones y los indicadores, lo que se conoce como microfraude. Crecen los editores depredadores, las revistas depredadoras y los mercados de métricas falsas, que se consideran una "amenaza global" para la ciencia. La ludopatía en respuesta al control cuantificado es sintomática de la economía moral neoliberal del fraude y de la mercantilización criminógena del mundo académico (Whyte y Wiegratz, 2016). Aunque puede haber "verdaderos creyentes" en la gobernanza por números, este artículo se centra en lo que parece ser la figura más común del cínico académico, argumentando que el triunfo de los números y la reproducción de la gobernanza por números a pesar de la creciente crítica y la conciencia crítica tiene que ser entendida a través de las nociones de fantasía ideológica, desautorización y placer y a través de un modo particular de subjetivación - a saber, la subjetividad gamificada. Reflexionando sobre observaciones (auto)etnográficas y entrevistas con académicos y sindicalistas en el mundo académico noruego, este artículo ofrece una contribución teórica sobre la función de la ideología cínica y la subjetividad gamificada para la reproducción organizativa y sus consecuencias para la posibilidad de resistencia. La resistencia, se argumenta, implicaría la externalización de la incredulidad y la desculpabilización de lo académico, y volver a poner la medida en su lugar. ¿Puede surgir la política propiamente dicha a pesar del cinismo organizativo?

*************

The Cynical University: Gamified subjectivity in Norwegian academia

Originalversjon
Ephemera : Theory and Politics in Organization. 2021, 21 (3), 43-71. http://www.ephemerajournal.org/contribution/cynical-university-gamified-subjectivity-norwegian-academia

Sammendrag
Norwegian academia is increasingly subject to governance by numbers. A mixture of New Public Management, corporate governance and the power wielded by management-consultant firms underpins this ‘triumph of numbers’ intended to stimulate competition, productivity and excellence. Disillusionment, individualization, insecurity, anxiety and envy, have, however, become its products. Few believe that metrics are neutral, unbiased or objective. On the contrary, individual and institutional practices of gaming statistics and manipulating ratings and indicators are widespread, together known as micro-fraud. Predatory publishers, predatory journals and fake metrics markets are growing, considered a ‘global threat’ to science. Gaming in response to quantified control is symptomatic of the neoliberal moral economy of fraud and the criminogenic marketization of academia (Whyte and Wiegratz, 2016). While there may be ‘true believers’ in governance by numbers, this article focuses on what appears as the more common figure of the academic cynic, arguing that the triumph of numbers and the reproduction of governance by numbers despite mounting critique and critical awareness has to be understood through the notions of ideological fantasy, disavowal and pleasure and through a particular mode of subjectivation – namely, gamified subjectivity. Reflecting on (auto-)ethnographic observations and interviews with academics and trade unionists in Norwegian academia, this article offers a theoretical contribution to the function of cynical ideology and gamified subjectivity for organizational reproduction and its consequences for the possibility of resistance. Resistance, it is argued, would involve externalization of disbelief and degaming of the academic, and putting measure back into its proper place. Can politics proper emerge despite organizational cynicism?

Plan 2.0 para el acceso abierto: ¿un plan o una nueva ambigüedad?

Publicado en THE Times Higher Education https://www.timeshighereducation.com/news/plan-s-20-open-access-plan-bold-may-prove-ineffective   El...