Mostrando entradas con la etiqueta Factor de impacto. Mostrar todas las entradas
Mostrando entradas con la etiqueta Factor de impacto. Mostrar todas las entradas

lunes, 19 de febrero de 2024

Clarivate anuncia cambios en la clasificación por categorías del factor de impacto de las revistas

Publicado en blog Universo abierto
https://universoabierto.org/2024/02/19/clarivate-anuncia-cambios-en-la-clasificacion-por-categorias-del-factor-de-impacto-de-las-revistas/




Clarivate anuncia cambios en la clasificación por categorías del factor de impacto de las revistas

Quaderi, Dr Nandita. «2024 Journal Citation Reports: Changes in Journal Impact Factor Category Rankings to Enhance Transparency and Inclusivity». Clarivate (blog), 16 de febrero de 2024. https://clarivate.com/blog/2024-journal-citation-reports-changes-in-journal-impact-factor-category-rankings-to-enhance-transparency-and-inclusivity/.

En la próxima versión del JCR, programada para junio de 2024, se producirán dos cambios cruciales en las clasificaciones de categorías del Factor de Impacto de la Revista (JIF). En primer lugar, se reemplazarán las clasificaciones de JIF específicas de la edición con clasificaciones unificadas para cada una de las 229 categorías de ciencias y ciencias sociales. Además, se eliminarán las clasificaciones separadas de JIF para las nueve categorías temáticas indexadas en múltiples ediciones, optando por una única clasificación unificada que abarque todas las ediciones pertinentes


En los últimos años, se han introducido una serie de cambios de políticas en el Journal Citation Reports (JCR)™ con el fin de alinear la cobertura entre la Web of Science Core Collection™ y el JCR, aumentar la transparencia de los datos subyacentes a las métricas del JCR y promover una comparación más inclusiva y completa de las revistas.

Entre los cambios recientes en el JCR se incluye la incorporación de páginas de perfil para las revistas indexadas en el Arts and Humanities Citation Index (AHCI)™ y Emerging Sources Citation Index (ESCI)™, así como la introducción del Journal Citation Indicator (JCI) en 2021. El JCI está normalizado por campo para facilitar la comparación de revistas en diversas disciplinas, incluidas las artes y humanidades. Además, se ha extendido el alcance del Factor de Impacto de la Revista (JIF)™ a las revistas AHCI y ESCI en 2023, de modo que ahora abarca todas las revistas de calidad en la Web of Science Core Collection.

Con estos cambios, el JIF ha pasado de ser simplemente un indicador del impacto académico (representado por su valor numérico) en las ciencias y ciencias sociales, a convertirse en un indicador que denota tanto el impacto académico como la fiabilidad (al tener un JIF, independientemente de su valor) en todas las disciplinas a nivel de revista.

En 2023, también se modificó la forma en que se muestra el JIF, reduciendo los lugares decimales de tres a uno. Este cambio es significativo ya que ha generado más empates en las clasificaciones del JIF, fomentando así la consideración de indicadores adicionales y factores descriptivos junto con el JIF al comparar revistas.

El compromiso de mejorar la transparencia y la confianza continúa en la próxima versión del JCR que se publicará en junio de 2024. Dos cambios importantes, anunciados el año pasado, se implementarán en las clasificaciones de categorías del JIF.

  • Se pasará de las clasificaciones de JIF específicas de la edición a clasificaciones unificadas para cada una de nuestras 229 categorías de ciencias y ciencias sociales.
  • Además, ya no se proporcionarán clasificaciones de JIF separadas para las nueve categorías temáticas que están indexadas en múltiples ediciones. Por ejemplo, la categoría de Psiquiatría está incluida tanto en el Science Citation Index – Expanded (SCIE)™ como en el Social Sciences Citation Index (SSCI)™ y actualmente se publica una clasificación separada de Psiquiatría para cada edición. Estas clasificaciones separadas serán reemplazadas por una única clasificación unificada.

Asimismo, las nuevas clasificaciones unificadas incluirán revistas indexadas en ESCI. Utilizando nuevamente el ejemplo de Psiquiatría, se mostrará una única clasificación que incluirá revistas indexadas en SCIE, SSCI y ESCI.

miércoles, 13 de septiembre de 2023

ESPAÑA se rebela. ANECA en la encrucijada: el final del reino del factor de impacto

Publicado en El Diario de la Educación
https://eldiariodelaeducacion.com/2023/09/12/aneca-en-la-encrucijada-el-final-del-reino-del-factor-de-impacto/



ANECA en la encrucijada: el final del reino del factor de impacto

por Luis Mariano Torrego Egido
María Verdeja
Ana de Castro
Enrique Díez
12/09/2023



Hasta ahora el sistema de evaluación y acreditación de la carrera profesional del profesorado universitario la realiza la ANECA (Agencia Nacional de Evaluación de la Calidad y la Acreditación) premiando la acumulación de publicaciones cuantificables y comercializables.

Este sistema ha consolidado un modelo de universidad y de ciencia que se caracteriza por basarse en el factor de impacto y por la utilización de los rankings de revistas como criterio principal de evaluación de la investigación. En otras palabras, el éxito científico consiste en publicar artículos (papers) en revistas “internacionales” indexadas en los primeros cuartiles de los rankings bibliométricos derivados de la Web of Science (JCR) o Scopus (SJR), establecidos por dos multinacionales extranjeras, Clarivate y Elsevier.


Este sistema no profundiza en el valor de los artículos en sí, ni en su relevancia científica o social. Además, ha fomentado una extraordinaria competitividad en el seno de las universidades para aumentar la cantidad de papers en las clasificaciones y ha propiciado prácticas faltas de ética que han sido noticia: investigadores que reciben dinero por figurar en el plantel de instituciones universitarias de Arabia Saudí para que éstas asciendan en los rankings o que publican un artículo “científico” cada 37 horas.

Se ha generado así un innegable proceso de capitalismo académico, caracterizado por el oligopolio de las grandes editoriales y distribuidoras de la producción científica, el incremento de los costes por publicación —los autores o sus instituciones pagan por publicar sus artículos— y las conductas oportunistas de buena parte de las multinacionales de las revistas científicas.

Por otra parte, esta espiral de inflación de papers que casi nadie lee, pero que es el “patrón oro” de nuestro sistema de evaluación, ha llevado a convertir la función docente, esencial en la universidad, en un obstáculo para la promoción académica, una “carga docente”. Lo cual devalúa una finalidad clave de la universidad que es proporcionar una formación de calidad a su alumnado.

Además, este modelo incumple los acuerdos internacionales que en materia de ciencia han sido suscritos por los organismos oficiales españoles, desde la Declaración de San Francisco sobre la evaluación científica (DORA), hasta el Manifiesto de Leiden sobre indicadores de investigación, pasando por la Iniciativa Helsinki sobre multilingüísmo en la comunidad científica, así como los principios de CoARA.

Frente a este enfoque productivista y mercantil, necesitamos un modelo de universidad pública al servicio del bien común y comprometida socialmente, así como un sistema de evaluación y acreditación del profesorado universitario que responda a un modelo de ciencia abierta para el bien común.

Por eso el colectivo de profesorado universitario, Uni-Digna, en reunión con la nueva directora de la ANECA, le ha trasladado la urgencia de dar pasos decididos, de una forma negociada y consensuada con los representantes de la comunidad académica universitaria, para establecer un sistema de evaluación de la docencia y de la investigación más justo, que responda a este modelo de ciencia para el bien común, concretados en cuatro propuestas:

  • Que la acreditación del profesorado descarte el uso de métricas basadas en revistas, en especial el denominado factor de impacto.
  • Que colabore en la configuración de una Ciencia Abierta Pública, que elimine los acuerdos transformativos que están suscribiendo las universidades públicas con las editoras transnacionales para financiar con dinero público la publicación de papers (APC: cargos por procesamiento de artículos) que exigen las revistas privadas.
  • Evaluar, desde una visión global, la investigación, concediendo un peso fundamental a su impacto social, para que contribuya a una ciencia para una sociedad sostenible e inclusiva y comprometida con los derechos de los colectivos más vulnerables.
  • Potenciar la investigación de relevancia local y democratizar la evaluación, poniendo en marcha, entre otras medidas, un proceso independiente, democrático y participativo para evaluar “el sistema de evaluación”.

* Colectivo Uni-Digna: Luis Torrego (catedrático de la Universidad de Valladolid); María Verdeja (profesora contratada doctora de la Universidad de Oviedo); Ana de Castro (profesora de la Universidad La Florida – Valencia) y Enrique-Javier Díez-Gutiérrez (profesor titular de la Universidad de León). Forman parte del Colectivo Uni-Digna, colectivo compuesto por profesorado de diversas ramas de conocimiento de las universidades públicas españolas que se han unido para reivindicar un sistema de evaluación y acreditación del profesorado universitario comprensivo, razonable y justo. Su web: https://unidigna.wordpress.com/



martes, 14 de marzo de 2023

Journal Citation Reports 2024: se amplía el FI a todas las revistas del WoS

Publicado en blog Universo abierto
https://universoabierto.org/2023/03/13/futuros-cambios-en-el-journal-citation-reports-para-2024/


Futuros cambios en Journal Citation Reports para 2024

Editor-in-Chief, Nandita Quaderi, Vice President Editorial, y Web of Science Clarivate. «Mapping the Path to Future Changes in the Journal Citation Reports». Clarivate (blog), 7 de marzo de 2023. https://clarivate.com/blog/mapping-the-path-to-future-changes-in-the-journal-citation-reports/.

En julio de 2022, se cumplieron los planes para ampliar el Journal Impact Factor (JIF)™ a todas las revistas de la Web of Science Core Collection™ a partir de junio de 2023. Esto significa que este año, las revistas del Arts and Humanities Citation Index (AHCI)™ y del multidisciplinar Emerging Sources Citation Index (ESCI)™ en el Journal Citation Reports (JCR)™ recibirán un JIF por primera vez.

Recordamos que esta novedad obedece a dos motivos: Dar a todas las revistas de calidad un JIF proporcionará total transparencia a todos y cada uno de los artículos y citas que han contribuido al impacto académico de una revista, ayudando a demostrar su valor para la comunidad investigadora. También contribuirá a nivelar el terreno de juego para todas las revistas de calidad, incluidas las de acceso abierto, las de reciente creación o las especializadas, o las de ámbito regional y las del Sur Global.

Como resultado de este desarrollo, otras 9.000 revistas del JCR recibirán un JIF y se beneficiarán por primera vez de una página de perfil de revista mejorada. Además, se muestra el JIF con un decimal, en lugar de los tres decimales actuales, para animar a los usuarios a tener en cuenta otros indicadores y datos descriptivos del JCR a la hora de comparar revistas.

Clasificaciones por categorías en la versión 2023 del JCR

Este año se sugiere proporcionar clasificaciones por categorías y asignando cuartiles JIF solo para las revistas indexadas en el Science Citation Index Expanded (SCIE)™ y el Social Sciences Citation Index (SSCI)™.

También proporcionar clasificaciones separadas para las nueve categorías temáticas que están indexadas en múltiples ediciones. Por ejemplo, la Psiquiatría está incluida tanto en el SCIE como en el SSCI; este año, las revistas de Psiquiatría del SCIE seguirán clasificándose por separado de las revistas de Psiquiatría del SSCI.

El hecho de que el JIF se muestre con un decimal hará que las clasificaciones estén más igualadas. Esto afectará a la distribución de los cuartiles del JIF, ya que los cuartiles se calculan en función del número de posiciones en el ranking de una categoría determinada, y no simplemente del número de revistas de una categoría dividida equitativamente en cuatro (Figura 1).

Fig. 1

La distribución por cuartiles ha dado lugar normalmente a que aproximadamente el 25% de las revistas estén contenidas en cada cuartil, ya que los empates han sido poco frecuentes. Sin embargo, al aumentar el número de empates, la distribución cambia. Las revistas empatadas en el mismo rango no pueden dividirse entre dos cuartiles y con el aumento del número de empates veremos que algunos cuartiles contendrán un número mayor o menor de revistas que en años anteriores.

La fórmula para calcular los cuartiles puede encontrarse aquí

¿Cómo serán las clasificaciones por categorías en 2024?

En la versión del JCR del próximo año, se añadirán las revistas AHCI y ESCI a las clasificaciones por categorías del JCR y se asignarán a cuartiles JIF. Ya no habrá rankings de categorías específicos para cada edición y, en su lugar, se creará un único ranking para cada una de nuestras 254 categorías que incluirá revistas de las cuatro ediciones (SCIE, SSCI, AHCI y ESCI). Una vez más, tomando Psiquiatría como ejemplo, se mostrará un único ranking de Psiquiatría que incluye revistas indexadas en SCIE, SSCI y ESCI.

En el caso de AHCI, se introducirá por primera vez clasificaciones para las 25 categorías únicas específicas de artes y humanidades. No habrá categorías específicas de ESCI; todas las revistas indexadas en ESCI entran dentro de las 254 categorías temáticas existentes en SCIE, SSCI y AHCI.

La inclusión de 9.000 revistas adicionales de AHCI y ESCI en las clasificaciones por categorías del JIF también afectará a las clasificaciones generales y a la distribución por cuartiles el próximo año.

¿Por qué se está adoptando un enfoque gradual?

Se está ampliando el JIF a AHCI y ESCI y pasando a una visualización de un punto decimal del JIF este año y, a continuación, se incluirán las revistas AHCI y ESCI en las clasificaciones por categorías el próximo año, con el fin de proporcionar transparencia sobre cómo cada uno de estos cambios afecta por separado a las clasificaciones y cuartiles del JIF.

Esta es la primera de una serie de actualizaciones y análisis sobre cómo la ampliación del JIF a más revistas de calidad se traducirá en cambios en las clasificaciones y cuartiles en JCR y explicará cómo los usuarios pueden utilizar los filtros de JCR para ver clasificaciones que sólo incluyan revistas de ediciones de interés. Marque esta página y permanezca atento a nuevas actualizaciones.


miércoles, 7 de diciembre de 2022

Journal Impact Factor, CiteScore y Scimago Journal Rank: qué son y cómo usarlos en ciencias sociales y humanidades

Publicado en blog Lluis Codina
https://www.lluiscodina.com/indices-de-impacto-citescore/



Journal Impact Factor, CiteScore y Scimago Journal Rank: qué son y cómo usarlos en ciencias sociales y humanidades

3 julio, 2022 por Lluís Codina

Lluis Codina indicadores de impacto 1.jpg
Revisión 3 de julio de 2022

CiteScore (Scopus), Journal Impact Factor (WoS) y Scimago Journal Rank (Scimago), son tres conjuntos de indicadores o índices de impacto que ayudan a medir la influencia de las revistas y publicaciones académicas.

Se cuentan seguramente entre los tres más importantes del mundo y, por esta razón, están entre los más utilizados en procesos para evaluar el desempeño de la actividad científico-académica.

Nota de la edición de julio 2022: recientemente (2021) Clarivate (empresa productora de Web of Science) produjo el nuevo índice denominado Journal Citation Indicator o JCI. No lo trataremos en esta entrada, pero los interesados puden consultar una completa guía aquí.

Esta entrada se organiza de la siguiente forma: en la primera parte presentaremos el concepto general de los índices de impacto y la forma en la que se calculan, así como sus principales variaciones. En la segunda parte, presentaremos con cierto detalle los indicadores que hemos señalado más arriba.

En la tercera parte consideraremos las principales limitaciones generales de los indicadores de impacto, y sus problemas intrínsecos, así como su uso en procesos de evaluación de carreras académicas, a fin de obtener así alguna conclusión sobre su uso en el caso de las ciencias sociales y las humanidades.

PRIMERA PARTE

QUÉ SON LOS ÍNDICES DE IMPACTO

Impacto es un término frecuente (de hecho es obsesivo) en la evaluación de la ciencia y puede referirse a dimensiones muy distintas: social, económico, tecnológico, etc. También, por supuesto, puede referirse al impacto académico que es el que nos interesa aquí. En tales casos, el concepto de impacto está vinculado con la publicación de artículos (u otros formatos documentales) y con las citas que reciben.

Métricas de publicación y métricas de artículos

Debido a la obsesión de las agencias de evaluación con el factor de impacto, y en concreto con uno de ellos (JIF), a veces olvidamos que en realidad hay dos tipos de indicadores vinculados con la comunicación académica:

  • Métricas a nivel de revista o journal-level metrics
  • Métricas a nivel de artículo o article-level metrics

Los indicadores a nivel de artículo son, entre otros, los que se centran en las citas recibidas por el artículo concreto que deseamos analizar. Pero también consisten en las llamadas altmétricas, entre las cuales tenemos el uso, difusión o interacción en redes sociales. Empresas como PlumX o Altmetric proporcionan estas métricas a través de bases de datos entre otro canales.

Los indicadores a nivel de publicación por su parte son los que nos dicen algo sobre la influencia de la publicación de manera global y se basan en ratios (ponderados o no) de citas recibidas. Pero esto lo veremos en detalle en lo que seguirá.

Base común de los índices de impacto a nivel de revista

La base común de los índices de impacto a nivel de revista (como los que vamos a examinar aquí) consiste en una división entre el número de citas recibidas por un grupo de documentos y el número de documentos que forman parte del grupo. De este modo:

  • En el numerador tenemos el número de citas recibidas por un grupo de documentos, o variable A.
  • En el denominador tenemos el número de documentos del grupo, o variable B.
  • Índice de impacto = A/B.

Esta fue la idea original de Eugene Garfield cuando creó el Journal Impact Factor (JIF) allá por los años 70 del siglo pasado y tuvo un éxito casi inmediato por su aparente sencillez. Sin embargo, como se suele decir: «el diablo está en los detalles».

Lo primero que cabe recordar, como el propio Garfield ha manifestado en varias ocasiones, es que el objetivo de su índice fue pensado para que las bibliotecas universitarias pudieran tomar decisiones en la suscripción de revistas. Como sea, en lo que sigue, intentaremos ayudar a entender cómo funciona este indicador.

Cálculo del impacto

El grupo de documentos se puede referir (de hecho, es lo habitual) a los artículos publicados por una revista durante un período de tiempo. Este período se denomina ventana de citación y suele tener entre 2 y 5 años (según el indicador considerado en cada caso). Las citas que se toman en cuenta son las que han recibido esos documentos durante el año para el que se calcula el índice de impacto.

Véase entonces que, para un índice de impacto con una ventana de citación de N años, tenemos N+1 años implicados: el año para el que se mide el impacto más los N años anteriores que forman la ventana de citación. Como ilustración, usaremos el ejemplo del JIF para calcular el factor de impacto de la revista Z en 2020:

  • A es el número total de citas que durante el 2020 han recibido los artículos publicados en 2019 y 2018. Supongamos que este número consiste en 100 citas recibidas.
  • es el número total de artículos publicados en 2019 y 2018. Supongamos que en total en esos dos años la revista ha publicado 50 artículos.
  • Factor de impacto de la revista Z en 2020 = 2, porque 100/50 = 2.
Variables

Ahora bien, tras la simple (pero ingeniosa) fórmula inventada por Garfield vienen las complicaciones al considerar los detalles sobre cómo se organiza el conteo. Las variables a considerar son las siguientes:

  1. Ventana de citación. Consiste en el número de años que se toman en consideración para contar el número de citas recibidas. En el ejemplo anterior hemos tomado 2, como en el JIF. Otros indicadores, como el SJR usa 3, y CiteScore por su parte usa 4.
  2. Documento citable. Las revistas científicas publican diferentes tipos de artículos: artículos de investigación, artículos de revisión, notas breves, noticias de actualidad, crítica de libros, etc. ¿Entran todos los tipos en el cómputo de ítem citable o debe ser restringido a artículos de investigación? De nuevo, aquí hay diferencias según los índices.
  3. Documento emisor de citas. Lo mismo sucede con los documentos de los que proceden las citas. ¿Cuentan solamente las citas que proceden de artículos de investigación o también las que proceden de artículos de revisión, notas, editoriales, etc.?
  4. Simetría o asimetría numerador/denominador. De los puntos anteriores se desprende otra cuestión: la tipología de documentos del numerador y la del denominador puede ser la misma (simetría) o, por alguna razón, puede ser diferente (asimetría).
  5. Simetría o asimetría de fuentes. Por último, pero no menos importante: ¿de dónde tomamos los datos? ¿Las fuentes que usamos para contar los documentos que emiten citas han de ser las mismas que usamos para determinar de qué revistas medimos el impacto?

Visto lo anterior, sobre todo los puntos 4 y 5, una opción es usar la máxima simetría. Es la de Scopus con CiteScore, y de paso la del SJR ya que se basa en Scopus. Otra opción consiste en la asimetría en el numerador y el denominador y también en las fuentes. Es la opción de los JCR (Web of Science) con el JIF.

La simple intuición, incluso la famosa regla de Ockham nos diría que las simetrías parecen lo más aconsejable, tanto por transparencia como por replicabilidad. Pero aquí lo dejamos.

Ponderaciones

Una variación adicional sumamente interesante surge del hecho de que una vez obtenido el resultado de la división A/B, este número se puede se puede ponderar en función de ciertos factores. Las principales ponderaciones son de dos tipos (aunque podemos encontrar otras, tanto en Scopus como en WoS):

  • Normalización por áreas de conocimiento. En áreas donde las citaciones son menos probables (humanidades, p.e.), cada cita vale más. Un ejemplo de este índice ponderado es SNIP.
  • Ponderación por prestigio. En el caso de las revistas con un alto índice de impacto, cada cita vale más (de un modo similar al PageRank de Google). Un ejemplo de este tipo de ponderación por prestigio de la fuente es el SJR.

Como hemos señalado, tanto Scopus en su CiteScore metrics, como Web of Science en sus JCR proporcionan algunos de estos índices ponderados.

A veces, con la obsesiva atención que las agencias de evaluación dedican al JIF (sobre todo) y sus cuartiles olvidamos la riqueza real de los datos que proporcionan estas dos bases de datos, incluyendo, por cierto, indicadores a nivel de artículo.


SEGUNDA PARTE

CITESCORE, JIF Y SJR: CARACTERIZACIÓN


Para caracterizar los indicadores utilizaremos principalmente las definiciones de los productores respectivos, eventualmente contrastadas con las fuentes indicadas al pie.

Cabe señalar que las fichas que hemos preparado para cada indicador se centran en las métricas principales de cada índice, por ejemplo, en el caso de WoS en el Journal Impact Factor (JIF), y en el de Scopus en CiteScore, pero tanto WoS como Scopus proporcionan otras métricas que pueden ser tanto o más útiles que las que caracterizamos aquí.

El motivo de que nos centremos en estos indicadores s debe a que son los que suelen tener en cuenta en procesos de evaluación. Tanto en el caso de Scopus como de WoS incluímos también la versión ponderada de sus índices respectivos. Por su parte, el SJR es un índice ponderado de manera directa (por el prestigio de la fuente que emite las citas).

CiteScore (Scopus)

Lluis Codina indicadores de impacto 2 1.png
Lluis Codina indicadores de impacto 2.png

CiteScore es muy fácil de presentar comparado con JIF. La razón es que en CiteScore hay una sola fuente y no existe asimetría ni entre numerador y denominador ni entre índices o fuentes utilizadas. Lo único que tal vez vale la pena señalar (después nos referiremos a las críticas que recibe) es que este año ha pasado a tener una ventana de citación de 4 años. Hasta ahora, había sido de 3 años. También vale la pena destacar que su consulta es abierta.

Journal Impact Factor (JIF)

Discussing the Journal Impact Factor inevitably leads one down a rabbit hole. While the numerator of the ratio (total citations) to the journal is clear enough, the denominator (citable items) causes great confusion, and getting a clear answer to its construction requires real work.

Davis, 2016

En el caso del JIF hemos empezado con la cita precedente porque es un índice lleno de casuística como ya hemos intentado explicar más arriba.

Lluis Codina indicadores de impacto 3.png

JIF: fuentes

The citations that comprise the Journal Impact Factor numerator are drawn from the premier journal and proceedings indexes in Web of Science (Science Citation Index Expanded, Social Sciences Citation Index, Arts & Humanities Citation Index, and both the Science and Social Science and Humanities editions of the Conference Proceedings Citation Index, as well as the Emerging Sources Citation Index). Citations from the Book Citation Index do not contribute toward JCR metrics.

The numerator of the Journal Impact Factor consists of any citation to the journal as defined by the title of the journal, irrespective of what item in the journal might be cited. JCR therefore aggregates all citations to a given journal in the numerator regardless of cited document type.

Clarivate


Actualización 2022

Ver la revisión del nuevo indicador de los JCR: el Journal Citation Indicator (JCI)

***********************************************

Scimago Journal Ranking (SJR)

Lluis Codina indicadores de impacto 4.png

Tabla 2: SJR

SJR utiliza los datos de citación de Scopus, pero añade una ponderación para dar más peso a las citas que proceden de revistas de mayor prestigio, así como añade otros valiosos indicadores.

Además, el portal Scimago presenta una ficha de cada revista con una serie de análisis complementarios, así como una serie de indicadores sobre países.


TERCERA PARTE


APLICACIÓN DE LOS INDICADORES EN CIENCIAS SOCIALES Y HUMANIDADES

Métricas aplicadas en forma inadecuada

Uno de los problemas que presentan los indicadores que hemos examinado no es, en realidad, achacable a las propias métricas, sino a la forma en la que se utilizan en algunos procesos de evaluación.

¿Recuerdan que dijimos que existen métricas a diferentes niveles? Concretamente, ¿a nivel de publicación y a nivel de artículo? El problema al que nos referimos es que a veces se pretende certificar la calidad de artículos e investigaciones con indicadores que en realidad corresponden al nivel de la publicación.

Por un lado, es lógico que un autor que haya conseguido publicar en una revista de primer cuartil reivindique este logro, y es lógico que le sea reconocido, porque no es fácil publicar en revistas de calidad, y aún menos en revistas de alto impacto que tienen una enorme tasa de rechazo.

Ahora bien, al menos desde el punto de vista de los autores que han de ser evaluados, el verdadero problema viene por el lado contrario. Una investigación no es defectuosa por haber sido publicada en una revista con bajos índices de impacto. La revista puede tener los mismos umbrales de calidad que una revista de alto impacto, pese a tener menos citaciones. Son cosas diferentes. Y el artículo puede tener una enorme influencia si se mide por las citas que recibe el artículo, no la revista.

Lo contrario, en este caso, sí que funciona (y espero no marear al lector). Un artículo publicado en una revista de alto impacto puede tener una influencia nula. La evidencia al respecto la tenemos si tenemos en cuenta que una parte considerable de artículos publicados en revistas con alto impacto no reciben citaciones.

Lluis Codina indicadores de impacto 5.jpg

La captura precedente muestra que entre el 17 y el 24 por ciento de los artículos en las seis primeras revistas de primer cuartil del área de Comunicación no han recibido citas en los cuatro años que mide CiteScore. Según descendemos por el ranking, incluso manteniéndonos en revistas Q1, el porcentaje de artículos llega al 50 por ciento.

Repita conmigo: «factores a nivel de artículo»

No tiene ningún sentido, con estos enormes sesgos, dar por sentado que un artículo publicado en una revista Q1 va a tener mayor influencia que un artículo publicado en una revista Q2 o incluso Q3. Para decidir sobre el impacto de un artículo hay que considerar los factores a nivel de artículo, no de revista.

En todo caso, como señala el manifiesto de Leiden, los indicadores cuantitativos pueden apoyar la toma de decisiones, pero no deberían servir para que los evaluadores eludan su responsabilidad. Esta responsabilidad se abandona si no adoptan decisiones informadas que requieren combinar diversos indicadores y el apoyo de evidencia cualitativa como la que representa el impact statement.

Fronteras artificiales

Por si fuera poco, los índices de impacto, en su conversión en cuartiles, tampoco sirven para discriminar las revistas de la forma tan radical que gusta a las agencias de evaluación, de modo que llegan a servir para conceder o denegar acreditaciones de carreras académicas enteras,

En concreto, estas normativas pueden aprobar (o suspender) carreras académicas según el número de artículos en revistas de primer cuartil, cuando las diferencias entre primer y segundo cuartil son literalmente insignificantes.

Lluis Codina indicadores de impacto 6.jpg

La captura superior muestra la frontera entre Q1 y Q2 en la categoría de comunicación en los JCR (WoS). Está marcada por la revista número 23, aún en el Q1. Pero la diferencia con la 24, ya en el Q2, no existe en realidad. Si nos quedamos con un solo decimal (hablamos de número de artículos, no del peso de una molécula) no hay diferencias.

Además, podemos ver que, entre las revistas 20 a 27, las diferencias siguen siendo ínfimas (de décimas o de centésimas). Sin embargo estas ocho posiciones idénticas atraviesan dos cuartiles porque de la 20 a la 23 son Q1 y de la 24 a la 27 ya son Q2. Las ridículamente pequeñas diferencias entre Q1 y Q2 no justifican que sean equivalentes a la diferencia entre la vida y la muerte académica (conceder o no acreditaciones que abren la puerta a contratos consolidados, o la cierran para siempre).

Problemas intrínsecos

Además de los señalados, que son problemas generales, los dos grandes índices de impacto JIF y CiteScore, tienen cada uno de ellos problemas intrínsecos. Esto no es algo extraño a cualquier índice, de cualquier clase, desde el cálculo del PIB de una nación hasta el llamado ranking de Shangai, pasando por cualquier otro que se nos ocurra, como el de Gini, por mencionar otro ejemplo de un ámbito muy diferente.

Por tanto, que un índice tenga problemas intrínsecos, ni siquiera es noticia y no es causa para invalidarlos. Si así fuera, no es solo que no podríamos usar CiteScore o JIF, es que no podríamos usar ninguno de los cientos de índices que los gobiernos, investigadores y estudiosos de cualquier disciplina utilizan de forma rutinaria para toda clase de estudios, muchos de ellos esenciales en la toma de decisiones en aspectos críticos.

Lo que es necesario es que seamos conscientes de sus limitaciones y de que los tomemos con cautela y, sobre todo, es necesario conocerlos para no esperar de ellos lo que no pueden darnos. A este fin, vamos a considerar con cierto detalle las limitaciones intrínsecas de cada indicador (esto es, aparte de los posibles problemas de mal uso, que ya hemos visto).

Journal Impact Factor (JIF)

Uno de los problemas principales del JIF es la denominada asimetría numerador/denominador. Consiste en la diferente naturaleza tanto del tipo de documentos como de fuentes que utiliza para el numerador y el denominador. En el denominador solo cuentan los artículos de investigación y los de revisión («articles and reviews«). Estos artículos solo se toman de las índices de ciencias y de ciencias sociales.

Para el numerador, el JIF toma todas las citas que reciben las revistas de los índices de ciencias y de ciencias sociales, y ello de manera global, sin considerar a dónde apuntan las citas (tipo de artículo). Las citas las toma de todos los índices de la Colección Principal (por lo tanto, incluyendo humanidades) excepto de libros.

De este modo, en lugar de un solo tipo de documentos, en realidad, en el cálculo del JIF hay tres grupos de documentos:

  1. Los que emiten las citas y aportan los datos del numerador: en este caso de se trata de documentos publicados tanto por revistas JCR como no-JCR.
  2. Los que reciben las citas: cualquier tipo de documento publicado por las revistas del JCR, es decir, solo se considera la revista, no el tipo de documento. Seguimos en el numerador.
  3. Los que aportan el número que figura en el denominador: solo se cuentan artículos de investigación y artículos de revisión publicados por las revistas que forman parte del JCR. Se parece al 2, pero es muy diferente.

Una consecuencia de estas variaciones queda expresada por la siguiente afirmación (el destacado es nuestro) tomada del extenso análisis sobre el JIF que encontramos en uno de los más importante tratados sobre indicadores de ciencia publicados recientemente (Springer Handbook…):

Despite the apparent simplicity of the calculation, JIFs are largely considered nonreproducible

(Larivière, Sugimoto 2020).

Otra cuestión muy importante, al menos para algunos, es su negativa a incorporar las humanidades al JIF, sobre la que alegan imposibilidad de establecer índices debido a las hábitos de citación de este ámbito se reducen mayoritariamente a la cita de libros. Algo que ya era discutible en los años 70, cuando se creó el JIF, pero que está totalmente fuera de lugar desde hace tiempo.

CiteScore

El problema principal en el caso del CiteScore es de naturaleza muy diferente. Este índice es transparente y en teoría es fácilmente reproducible porque no existe la asimetría numerador/denominador, ni en el tipo de documentos ni en la fuente, y la composición de todos estos elementos es transparente.

El problema que se le atribuye es que la empresa propietaria de la base de datos, Elsevier, es también una editorial de revistas, y por tanto, se le supone un potencial conflicto de intereses.

Según algunos estudios, la forma de calcular su índice hace que las revistas de Elsevier (entre otras) queden mejor posicionadas que las del grupo Nature (entre otras) comparado con los resultados del JIF.

La razón es que las revistas de este último grupo tienen una naturaleza única en el mundo de las publicaciones de ciencia, con una mezcla de revista académica y revista periodística (los ingleses dirían que es una combinación de journal y magazine), lo que hace que tengan una mayor proporción de trabajos menos propensos a recibir menos citas en revistas puramente académicas.

No obstante, este sesgo es igual para todas las revistas, y no nace del índice en sí, sino de las características de cada revista. Lo que ningún estudio ha podido demostrar es que en CiteScore haya manipulación de algún tipo. Por el contrario, hay un consenso entre los expertos sobre la mayor transparencia de CiteScore, cosa que queda bien recogida en trabajos como los de esta cita (los destacados son nuestros):

Elsevier’s Scopus CiteScore may be a practically more useful journal-based metric than Clarivate Analytics’ Journal Impact Factor (JIF) because it is open and transparent about the background data used to derive the metric and because it confers a metric to Scopus indexed journals that do not carry a JIF.

Okagbue y Teixeira da Silva, 2020 
Impact factor vs impact statement

El índice de impacto ya hemos dicho que no es un indicador a nivel de artículo. Para evaluar este último necesitamos métricas a su nivel, o un impact statement (no un impact factor).

El impact statement es un documento breve, o una declaración como dice su nombre, que explica la significación y los aportes clave de un artículo o de una investigación. Existen diversas recomendaciones sobre cómo redactar un impact statement o una declaración de impacto académico. Por ejemplo, Enago Academy propone una versión especialmente articulada compuesta por cuatro apartados:

1. A clear description of the issue or problem that your research addresses. Often you can adapt the problem statement from your recently published articles or conference presentations.

2. A statement of the action you are taking or intend to take to resolve the problem. This action statement should directly refer to the problem statement you wrote in (1).

3. An explanation of the impact. This is the most important part of the impact statement. You need to describe clearly who benefits from your work and in what ways. You can focus on multiple different levels of benefit—individual, organizational, community, or social benefits, as well as benefits to the research community.

4. A list of the people involved in the research, other than yourself. Any collaborators, including institutions you are working with to complete the research, need to be listed in this section. Stakeholders will be looking to understand what each member of the research team is contributing to the project.

Fuente: Enago Academy

No es necesario que el impact statement sea exactamente como hemos visto en el caso precedente, ni existe, que sepamos un estándar. Por ejemplo, en las evaluaciones para obtener el llamado «sexenio de investigación», el impact statement (aunque no recibe este nombre en el formulario) es una casilla que permite a la persona evaluada añadir unos pocos párrafos en los que explica la significación de cada aportación, siendo publicaciones (artículos, comunicaciones, etc.) cada una de estas aportaciones.

Las evaluaciones cualitativas están en la base de la comunicación académica

Como es evidente el impact statement va a cargo del investigador, por tanto, es una forma de autoevaluación que deberá ser examinada y validada, en su caso, por terceros. Pero de esto es precisamente de lo que estamos hablando, de procesos de evaluación que, por definición, van a cargo de terceros. Hablamos de que estos evaluadores no pueden hacer dejación de su responsabilidad renunciando a considerar aspectos cualitativos en sus evaluaciones. Al final resulta que son esta clase de evaluaciones las que sostienen el edificio de la comunicación académica, a través de procesos conocidos por peer review.

El concepto de autoevaluación es consustancial a estos procesos, donde primero hay una autoevaluación y después hay una evaluación externa. Esta debe ir al cargo de expertos con similares competencias a las de la persona evaluada, por tanto, con capacidad, en este caso, para determinar la validez del impact statement o del tipo de autoevaluación que se trate.

Calidad de la revista vs impacto

Otra cuestión importante es separar el impacto de la calidad. Una revista académica puede tener una alta calidad y un bajo impacto si, por ejemplo, se centra en una especialidad con pocos investigadores, esto es, con pocas publicaciones anuales, y más aún si esta especialidad pertenece al ámbito de las humanidades.

Esta diferencia entre calidad e impacto es algo que reconoce muy bien la base de datos WoS en sus colecciones (Delgado, 2020). Para formar parte de los tres índices principales, el de ciencias, el de ciencias sociales y el de humanidades, una revista debe cumpliar 24 criterios de calidad, y 4 criterios de impacto que están muy bien diferenciados Lo podemos ver en la siguiente captura:

Lluis Codina indicadores de impacto 7.jpg

Siguiendo el criterio que muestra la captura precedente (tomada de una sesión de formación impartida por Clarivate ), las revistas que forman parte de un cuarto índice, el ESCI, son las han superado el umbral de calidad, pero no el de impacto, lo que no impide que forman parte de la Colección Principal de WoS en función de esta calidad intrínseca de la revista, perfectamente evaluada por los 24 indicadores que muestra la captura.

Índices de impacto en los procesos de evaluación

Al menos en ciencias sociales y humanidades, si por alguna razón hemos de utilizar indicadores de impacto lo más adecuado es utilizar los tres índices, a saber, CiteScore, SJR y JIF, sin perjuicio de otros que puedan ser relevantes según el contexto. Ello es debido a las diferentes limitaciones de cada uno pero también por la necesidad de utilizar diferentes indicadores como señalan las dos citas siguientes:

Since there is a journal performance market and an article performance market, each one with its patterns, an integrative use of these metrics, rather than just the impact factor alone, might represent the fairest and most legitimate approach to assess the influence and importance of an acceptable research issue, and not only a sound journal in their respective disciplines

Roldan-Valadez et al. 2018

Given the dominance of the JIF, and the more complex calculations in other metrics (e.g. SNIP), we believed that an easily understandable and accessible metric was needed to respond to the challenge laid out by second Golden Rule to always use multiple, complementary metrics as quantitative input in research evaluations.

James et al, 2019

En cualquier caso, no está justificado, a priori, discriminar ninguno de ellos, y mucho menos los dos primeros (CiteScore, SJR) ya que estos se elaboran sobre una base de la evidencia más amplia, a saber, sobre un mayor número de publicaciones, con una ventana más amplia de citación, con una mayor transparencia y replicabilidad y, esto es fundamental, no excluyen las humanidades.

Racionalidad

A veces, en determinadas normativas de evaluación leemos cosas como estas: «las revistas de nivel A son las que forman parte del cuartil 1 y 2 de WoS, o las que forman parte del cuartil 1 de Scopus». O incluso: «para su evaluación o para formar parte del compendio se aceptan artículos de revistas WoS [se entiende, de cualquier cuartil] o de revistas Scopus, excepto cuartil 4».

En ambos ejemplos (tomados de casos reales) los índices de Scopus están arbitrariamente discriminadas. Y esto contra toda evidencia o racionalidad científica. Pero, con todo, lo peor es cuando alguna agencia exige indicar factor de impacto de WoS para revistas de humanidades, cuando la realidad es que ¡no existe!

Una cosa es que un académico que está siendo evaluado, en cualquier campo (incluyendo ciencias sociales o humanidades) disponga de indicadores favorables gracias a los JCR. Este autor tiene la obligación de usarlos en su favor, como un indicio razonable de la calidad de su trabajo, que puede ser complementado con métricas a nivel de artículo u otros indicadores adicionales.

Otra cosa es cuando a un académico, en especial si trabaja en humanidades o ciencias sociales, los indicadores que le resultan favorables son otros, por ejemplo, los de CiteScore o los de SJR. En este caso, es irracional negarle a este académico el derecho a ser evaluado de acuerdo con estos otros indicadores, siendo igual o más sólidos, o igual y tan discutibles, como puedan ser los JCR.

Por último, en ocasiones se discriminan también revistas de WoS cuando estas forman parte del índice denominado Emerging Sources Citation Index (ESCI). La realidad es que entonces estas agencias parecen desconocer el sentido que WoS otorga a este índice y actúan de forma claramente inadecuada.

En este último caso, lo que debemos considerar es que ESCI forma parte de la llamada Colección Principal de WoS. Esta colección la forman las revistas que han superado un exigente umbral de calidad. Por tanto, por este lado, la calidad de la revista, salvo que decidamos desconfiar de WoS (pero entonces desconfiemos también de los JCR), la calidad de la revista, decimos, está garantizada, y no se justifica su exclusión.

Conclusiones y posible aplicación a los procesos de evaluación

Cada vez más instituciones académicas se adhieren a los principios generales del Manifiesto de Leiden y de la declaración DORA. Sin embargo, estas adhesiones no se manifiestan en modificaciones reales en los modos de proceder de las agencias de evaluación.

Por ejemplo, el JIF, sigue teniendo un peso decisivo en la denegación de acreditaciones para avanzar en la carrera académica, dejando poco o ningún espacio a otros indicadores de excelencia que se ajustan mejor a las ciencias sociales y las humanidades, y podrían ayudar a tomar decisiones mucho más justas. O ignorando la posibilidad de considerar el impact statement que ayudaría a que los evaluadores tomaran decisiones mejor informadas. Y estos son dos puntos esenciales que se desprenden de Leiden y DORA.

¿Mejorar la situación sin romperlo todo?

Es muy difícil que las agencias de evaluación de la ciencia renuncien a utilizar indicadores cuantitativos, y seguramente aún más que renuncien a utilizar los indicadores de impacto. En parte, porque son útiles, aunque mal utilizados, como afirma DORA, hacen más daño que beneficio, por ejemplo cuando se usan para denegar acreditaciones a investigadores que hacen bien su trabajo, pero no han publicado en revistas Q1, por mencionar un problema especialmente grave.

El misterioso mantenimiento de viejos prejuicios

Parece que los expertos que forman parte de las comisiones, más que las propias agencias, quienes son más reacios a abandonar los indicadores de impacto, el (mal) uso de cuartiles y la discriminación injustificada de indicadores (p.e. los de Scopus). Ello es debido sin duda a viejas inercias (aunque carezcan de justificación), pero también porque les debe parecer que simplifican la toma de decisiones.

Además, nadie quiere parecer el responsable de que un proceso de evaluación se convierta en un «coladero» o que se vuelva imprevisible al basarse en elementos subjetivos. Otros expertos, como las decenas de ellos que han inspìrado Leiden y DORA (y los miles que las respaldan), nos dirán que estas prevenciones son injustificadas, y lo argumentan muy bien en la bibliografía especializada, pero al parecer los primeros son los forman parte de las comisiones que tienen más peso en las agencias de evaluación.

Porqué personas expertas siguen creyendo que los JCR deben estar por encima de indicadores equivalentes como CiteScore o SJR, o que un Q2 de WoS es una revista válida, pero un Q2 de Scopus, no, para mí es un misterio, porque no hay nada que lo justifique. Pero cada día tenemos pruebas de estos prejuicios.

¿Podrían mejorarse los procesos de evaluación sin darle la vuelta a todo?

Por todo ello, seguramente no podemos esperar, al menos de momento, un cambio drástico en las normativas de evaluación que le de la vuelta a todo. Pero si expertos y agencias no quieren renunciar al uso de indicadores de impacto, al menos podrían adoptar algunas medidas elementales que harían menos dañinos y menos injustos los procesos de evaluación, en particular en el caso de las ciencias sociales y las humanidades. Algunas podrían ser las siguientes.

  • Evitar decisiones drásticas, tales como negar una acreditación (o una contratación), basadas exclusivamente en los cuartiles de las revistas; menos aún si se basan en discriminaciones entre Q1 y Q2, y menos aún si se basan en discriminaciones entre WoS y Scopus.
  • Dejar de excluir revistas únicamente por su posición en el cuartil, sea Q3 o sea Q4, sean de WoS o de Scopus.
  • Aceptar el uso de diversos indicadores por parte de la persona o institución evaluada. Y esto debe hacerse sin ninguna discriminación a priori si tales indicadores se elaboran bajo una base similar y disponen de similares garantías, como sucede con los que hemos presentado aquí.
  • Tomar las disposiciones necesarias para que la calidad de una investigación o de un artículo pueda basarse en la investigación misma y en métricas a su nivel, tales como las citas o las altmétricas.
  • Dar entrada a las evaluaciones cualitativas, que son las que forman el núcleo de los procesos de tipo peer review, que a su vez, son consustanciales al avance de la ciencia. Por ello, debe considerarse el uso del impact statement en las evaluaciones.
  • Permitir el uso en cada caso de los indicadores que mejor representen a la persona u organismo evaluado, siempre que el este indicador sea de tipo externo y disponga de reconocimiento en el ámbito académico o por parte de los expertos.

Las anteriores son ejemplos de medidas más bien conservadoras que, en caso de aplicarse, no modificarían de forma radical los procesos de evaluación que se llevan a cabo actualmente, pero eliminarían los principales problemas que presentan actualmente y acercarían un poco más estos procesos a los puntos básicos de Leiden y DORA.

Antes de cerrar este trabajo, presentamos para los interesados en conocer algo más de los índices de los que nos hemos ocupado, una serie de capturas de pantalla que complementan las fichas que hemos usado más arriba para cada índice. La idea es proporcionar información adicional sobre el uso de los mismos de una forma simple y directa gracias a estas capturas.


GALERÍA DE CAPTURAS ADICIONALES

CITESCORE, JOURNAL IMPACT FACTOR, SCIMAGO JOURNAL RANK

Lluis Codina indicadores de impacto 8.jpg

Lluis Codina indicadores de impacto 9.jpg

Lluis Codina indicadores de impacto a10.png

Lluis Codina indicadores de impacto a11.png

Lluis Codina indicadores de impacto a12.jpg

Lluis Codina indicadores de impacto a13.png

Lluis Codina indicadores de impacto a14.jpg


ANEXOS ¿Factor o índice de impacto?

Nosotros hemos usado a conveniencia el término índices de impacto, en lugar de factor de impacto (o impact factor) en este artículo por la razón que indicaremos a continuación.

Sucede que, con el término impact factor tenemos un caso de metonimia parecido a lo que en algunas áreas idiomáticas sucede con el término «aspirina» que, de ser una marca comercial, pasó a denominar a los analgésicos en general.

Con el término factor de impacto pasa algo parecido. En realidad es la denominación de un índice de impacto muy concreto, el que desarrolla la empresa Clarivate para los JCR y cuyo nombre oficial completo es Journal Impact Factor o JIF.

A veces, cuando algunos autores utilizan el término «factor de impacto» (o impact factor), no es posible saber si se refieren a los indicadores de impacto basados en citas en general, o al producto concreto de la empresa Clarivate.

Para peor, tal como lo usan algunos parece como si el Journal Impact Factor fuera el único índice de impacto que existe en el mundo (o en toda la Vía Láctea).

Por este motivo, nosotros usamos cuando nos ha parecido conveniente el término índice de impacto, o indicador de impacto, de modo que el Factor de Impacto, CiteScore, etc., quede claro más claro que son casos concretos de esta clase de índices.

Dicho sea de paso, aprovechamos para aclarar que, oficialmente, el nombre completo de este índice es Journal Impact Factor o, sea JIF (no Impact Factor).

Journal Citation Reports (JCR) y otras confusiones

Otra confusión terminológica suele venir a cuento de los JCR (Journal Citation Reports). Algunos autores usan este término como sinónimo a veces de la base de datos WoS, en expresiones como «revistas JCR», cuando, por el contexto, se vé que quieren decir «revistas indexadas en la base de datos WoS».

Pero es una mala asimilación, porque lo cierto es que los JCR dejan fuera muchas revistas indexadas en WoS. Por tanto, son cosas distintas. También se suele utilizar como sinónimo del JIF, pero de nuevo son cosas distintas, porque los JIF son una parte de los JCR, pero los JCR proporcionan una decena de índices y el JIF es solamente uno de ellos.

En resumen:

  1. Por un lado, tenemos la base de datos que produce los JCR, esto es, Web of Science (WoS).
  2. Por otro lado, tenemos a los JCR, que solamente incluyen una parte de las revistas de WoS.
  3. Y por último, tenemos el Journal Impact Factor, o JIF que es una de las diferentes métricas que incluyen los JCR.

Decir JCR para referirse al punto 2 es correcto, pero no para referirse a los puntos 2 y 3. Estos son otra cosa y, como tal, tienen su propio nombre (WoS y JIF, respectivamente).

De paso, señalar que JCR es un nombre plural y por un buen motivo, ya que está formado por diversos indicadores e incluye dos índices distintos. Debe decirse entonces, los JCR (no el JCR). El nombre desarrollado no deja lugar a dudas: Journal Citation Reports (gracias, Tomàs Baiget).

Para saber másCursos en vídeo en el canal de YouTube de FECYT

Mención aparte merece la extraordinaria colección de vídeos de formación de Fecyt sobre las bases de datos Scopus y Web of Sciences, que recomendamos calurosamente a todos los interesados en tener una buena formación sobre este importante tema.

Entradas y categorías relacionadas de este sitio

Plan 2.0 para el acceso abierto: ¿un plan o una nueva ambigüedad?

Publicado en THE Times Higher Education https://www.timeshighereducation.com/news/plan-s-20-open-access-plan-bold-may-prove-ineffective   El...