Mostrando entradas con la etiqueta Factor de impacto. Mostrar todas las entradas
Mostrando entradas con la etiqueta Factor de impacto. Mostrar todas las entradas

jueves, 4 de diciembre de 2025

FRANCIA: CNRS cancela Web of Science y desiste de sus indicadores de impacto. Apuesta por OpenAlex

Publicado en National Centre for Scientific Research (CNRS)
https://www.cnrs.fr/en/update/cnrs-breaking-free-web-science 



El CNRS se libera de Web of Science


1 de diciembre de 2025


A partir del 1 de enero de 2026, el CNRS cortará el acceso a una de las mayores bases de datos bibliométricas comerciales, Web of Science de Clarivate Analytics, junto con Core Collection y Journal Citation Reports.


Desde la publicación de la primera Hoja de ruta para la ciencia abierta del CNRS en 2019, la organización ha estado aplicando activamente una política de apertura de los resultados de la investigación y de cambio en la forma de evaluar a los científicos. Al igual que muchas otras organizaciones de investigación, el CNRS se opone a la evaluación cuantitativa basada en indicadores bibliométricos y favorece un enfoque cualitativo. Este es, pues, el contexto que sustenta la decisión del CNRS de suprimir el acceso a Web of Science (WoS) de Clarivate Analytics, que la organización considera un paso esencial para su política de ciencia abierta. El objetivo de esta decisión es ser coherente con los principios declarados por la organización en materia de evaluación de la investigación, que exigen, en primer lugar, un cambio en el uso de indicadores bibliométricos cuantitativos y, en segundo lugar, el desarrollo acelerado de soluciones alternativas centradas en datos abiertos y transparentes.   


A favor de la evaluación cualitativa


El uso de factores de impacto en la evaluación de los investigadores ha contribuido a la distorsión de las prácticas de publicación científica y, a su vez, de las prácticas de investigación. Alain Schuhl, director general adjunto de Ciencia (DGDS) del CNRS, explica que «desde hace demasiado tiempo, la investigación está atrapada en indicadores que, en realidad, no tienen nada que ver con la calidad intrínseca de los avances científicos expuestos en una publicación». La DGDS considera que dictar las reglas del juego para la evaluación de los investigadores definiendo el prestigio y el atractivo de las revistas es «una visión reduccionista de la ciencia que ya no debemos tolerar. Esto significa que debemos actuar ahora para garantizar la calidad y la ética del sistema de evaluación de la investigación».


Promover el desarrollo de bases de datos abiertas 


El CNRS inició este proceso en 2024 al darse de baja de la base de datos Scopus de Elsevier y hoy continúa con su política al restringir el acceso a la base de datos bibliométrica de Clarivate Analytics. Alain Schuhl nos recuerda que «otras instituciones prestigiosas han marcado el camino» con este enfoque. Esta decisión del CNRS ayudará a la organización a ahorrar 1,4 millones de euros anuales en cuotas de suscripción, fondos que se redirigirán hacia iniciativas que promuevan la ciencia abierta, en particular el desarrollo de bases de datos abiertas.


Así, se anima a los investigadores del CNRS a recurrir a bases de datos abiertas como OpenAlex. Esto ofrece un mayor nivel de visibilidad para las revistas que no están en inglés y un mayor número de revistas que el WoS, que se consideraba insuficientemente representativo para varias disciplinas. Las humanidades y las ciencias sociales estaban poco cubiertas, por ejemplo, al igual que la informática y las matemáticas.   


Revertir la ventaja histórica de Web of Science 


Hasta ahora, una de las principales razones de la posición tan destacada de WoS era la contribución colectiva de los miembros del personal del sector público, que llevan años mejorando la calidad de los datos de afiliación de WoS. Alain Schuhl explica que «hemos trabajado gratis para encerrarnos colectivamente en un sistema de pago cuando todos somos conscientes de sus sesgos y su carácter incompleto. Las instituciones han estado atrapadas en el sistema WoS durante todo este tiempo porque el hecho de que la mayoría de las instituciones de educación superior e investigación del mundo figuren en él permite realizar comparaciones entre ellas». Abandonar el WoS significa perder temporalmente la capacidad de compararnos con otros y posicionarnos en relación con nuestros homólogos a través de esas comparaciones basadas en un ámbito común de evaluación. Alain Schuhl añade que «esta decisión significa que el CNRS acepta que las comparaciones interinstitucionales o interpersonales deberán realizarse ahora sobre la base de otros principios que aún deben reinventarse».    


Alain Schuhl es muy consciente de que aún queda mucho trabajo por hacer en cuanto a la curación de metadatos antes de que OpenAlex pueda utilizarse en todo su potencial. Sin embargo, la DGDS cree que «ya es hora de dedicar nuestra energía a mejorar la calidad de las bases de datos bibliométricas abiertas» y destaca que «el CNRS está trabajando activamente para mejorar OpenAlex. Estamos seguros de que esta base de datos pronto será capaz de satisfacer plenamente a todos los científicos en su trabajo de investigación bibliográfica».


La emancipación nunca se puede lograr en solitario


En una era en la que la cooperación científica internacional es cada vez más frágil, el objetivo es, más que nunca, recuperar la soberanía sobre nuestras elecciones y decisiones científicas, de modo que estas se guíen por una mayor transparencia lograda mediante el uso de herramientas abiertas con métodos más transparentes. «Trabajar colectivamente en el desarrollo de bases de datos abiertas se ha convertido en una prioridad e invitamos a todos nuestros socios a que también pongan punto final a Web of Science», concluye Alain Schuhl.


/////////////////////////////////////////////////


The CNRS is breaking free from the Web of Science

December 01, 2025

From January 1st 2026, the CNRS will cut access to one of the largest commercial bibliometric databases, Clarivate Analytics' Web of Science, along with the Core Collection and Journal Citation Reports.

Since the publication of the CNRS's first Roadmap For Open Science in 2019, the organisation has been actively implementing a policy of opening up research results and changing the way scientists are evaluated. Along with many other research organisations, the CNRS opposes quantitative evaluation based on bibliometric indicators, instead of favouring a qualitative approach. This, then, is the context underpinning the CNRS's decision to cut access to Clarivate Analytics' Web of Science (WoS) which the organisation considers an essential step for its open science policy. The aim of this decision is to be coherent as regards the organisation's stated principles for research evaluation which firstly call for a shift from the use of quantitative bibliometric indicators and secondly for the accelerated development of alternative solutions focusing on open and transparent data.  

In favour of qualitative evaluation

The use of impact factors in the evaluation of researchers has contributed to the distortion of scientific publishing practices and, in turn, of research practices. Alain Schuhl, the CNRS's Deputy CEO for Science (DGDS), explains that "for too long now, research has been trapped by indicators that actually have nothing to do with the intrinsic quality of the scientific advances set out in a publication". The DGDS considers that dictating the rules of the game for the assessment of researchers by defining the prestige and attractiveness of journals is "a reductive view of science that we should no longer be condoning. This means we have to take action now to guarantee the quality and the ethics of the research assessment system".

Promoting the development of open databases 

The CNRS began this process in 2024 by unsubscribing from Elsevier's Scopus database and is pursuing its policy today by cutting access to Clarivate Analytics' bibliometric database. Alain Schuhl reminds us that "other prestigious institutions have led the way" with this approach. This decision by the CNRS will help the organisation save €1.4 million annually in subscription fees, funds that will be redirected towards initiatives promoting open science, particularly the development of open databases.

Thus, CNRS researchers are now encouraged to turn to open databases like OpenAlex. This offers a greater level of visibility for non-English-language journals and a larger number of journals than the WoS which was considered to be insufficiently representative for several disciplines. The humanities and social sciences were poorly covered, for example, as were computer science and mathematics.    

Reversing the Web of Science's historically constructed advantage

Up until now, a major reason for the highly prominent position of the WoS was the collective contribution of public sector staff members who have been enhancing the quality of WoS affiliation data for years. Alain Schuhl explains that "we have worked for free to lock ourselves collectively into a paid system when we are all aware of its biases and incompleteness. Institutions have been trapped in the WoS system for all this time because having the majority of the world's higher education and research institutions listed there means comparisons can be made between them". Leaving the WoS means temporarily losing the ability to compare ourselves with others and position ourselves in relation to our counterparts through such comparisons founded on a common scope for evaluation. Alain Schuhl adds that "this decision means the CNRS therefore accepts that inter-institutional or inter-personal comparisons will now need to be made on the basis of other principles that still need to be reinvented".    


Alain Schuhl is well aware that a lot of work remains to be done in terms of metadata curation before OpenAlex can be used to its full potential. However the DGDS believes "it is now high time to consecrate our energy to improving the quality of open bibliometric databases" and stresses that "the CNRS is actively working to improve OpenAlex. We're confident this database will soon be capable of giving full satisfaction to all scientists in their bibliographic research work."

Emancipation can never be achieved alone

In an era of increasingly fragile international scientific cooperation, the objective is more than ever to regain sovereignty over our scientific choices and decision-making so these are guided by enhanced transparency achieved through using open tools with more transparent methods. "Working collectively on the development of open databases has become a priority and we invite all our partners to also draw a line under the Web of Science", concludes Alain Schuhl.


domingo, 26 de octubre de 2025

La perdida de influencia del factor de impacto: hacia una evaluación más holística de la investigación

Publicado en blog Universo abierto
https://universoabierto.org/2025/10/06/la-perdida-de-influencia-del-factor-de-impacto-hacia-una-evaluacion-mas-holistica-de-la-investigacion/



La perdida de influencia del factor de impacto: hacia una evaluación más holística de la investigación

Worlock, David. The Implosion of the Impact Factor. David Worlock Blog, octubre de 2025. https://www.davidworlock.com/2025/10/the-implosion-of-the-impact-factor/

Se analiza la creciente irrelevancia del factor de impacto como métrica principal en la evaluación de la investigación académica. Worlock argumenta que esta métrica, que históricamente ha influido en decisiones de financiación, promoción y prestigio académico, está perdiendo eficacia debido a su enfoque limitado y a la evolución del panorama de la investigación.

David Worlock recuerda una reunión entre Eugene Garfield y Thompson en 1982 en la que Garfield afirmo, “Saben”, lo que he desarrollado aquí es solo la forma menos mala de medir la importancia de la ciencia experimental. Todas las demás que he examinado tienen fallas graves y perjudiciales: medir las citas es neutral y universal”.

A lo largo de los años se han hecho muchas sugerencias para añadir métricas/altmétricas nuevas o diferentes, o para crear un esquema de múltiples métricas para crear mejores maneras de distinguir la ciencia sólida de las contribuciones más importantes. Todas han fracasado.

Worlock destaca que el factor de impacto no refleja adecuadamente la calidad o el impacto real de una investigación, ya que se basa en el número de citas recibidas por los artículos publicados en una revista, sin considerar el contexto o la relevancia de esas citas. Además, señala que la creciente disponibilidad de preprints y la diversificación de los canales de publicación están haciendo que esta métrica sea aún menos representativa del valor real de la investigación.

También menciona iniciativas como la de Web of Science, que han comenzado a cuestionar y revisar el uso del factor de impacto, sugiriendo que la comunidad académica está reconociendo la necesidad de adoptar métricas más holísticas y contextuales para evaluar la investigación.

En conclusión, el artículo sugiere que la «implosión» del factor de impacto es una señal de que el sistema de evaluación académica está en transición hacia métodos más sofisticados y representativos, que consideren una gama más amplia de factores y contextos en la valoración de la investigación. En la era de la IA, y nuestra capacidad para examinar y comparar estructuras taxonómicas y ontológicas con un nivel de intensidad completamente diferente, sin duda deberíamos hacerlo mejor.

martes, 1 de julio de 2025

La publicación en revistas científicas de alto impacto: un modelo de economía basado en la codicia

Publicado en Portal INSP





La publicación en revistas científicas de alto impacto: un modelo de economía basado en la codicia

Columna
Conversaciones de salud pública



“Cuando la ética se enfrenta al lucro, rara vez la codicia sale perdiendo”

A partir de 1950 se han publicado decenas de millones de artículos científicos en todas las áreas del conocimiento. Este número crece todos los días en forma exponencial. Sin embargo, la gran mayoría de estos productos científicos tiene nulo impacto en la comunidad académica y en la sociedad. Esto es, a lo largo de más de 75 años, 44% de estos artículos no fue referido por alguno de sus pares; de hecho, 32% solamente tienen entre una y nueve citas. En esta estadística, hay un grupo muy selecto de 148 publicaciones a nivel mundial que tienen más de 10,000 citas bibliográficas y representan solamente el 0.0003% de las publicaciones existentes. Caracterizar la relevancia de una publicación científica tiene un enorme grado de complejidad. Una propuesta de dicha evaluación es el denominado Factor de Impacto de Revistas (JIF, por sus siglas en inglés) que fue desarrollado por Eugene Garfield, el fundador del Instituto de Información Científica, en las décadas de 1950 y 1960. Inicialmente, su propósito era ayudar a los bibliotecarios a decidir qué revistas incluir en el Science Citation Index y evaluar la importancia relativa de los artículos científicos. El JIF se calcula dividiendo el número de citas recibidas en un año determinado a artículos publicados en una revista en los dos años precedentes entre el número total de elementos citables (generalmente artículos originales, revisiones, etc.) publicados en esa revista durante el mismo periodo. Con el tiempo, el JIF se ha convertido en una métrica ampliamente utilizada, aunque es importante tener en cuenta que tiene limitaciones y no debe ser la única medida de la calidad o el impacto de una revista, menos aún de un investigador. Esto es porque, como afirmaba el propio Garfield, los descubrimientos verdaderamente fundamentales -la Teoría especial de la relatividad de Einstein es un ejemplo son tan importantes que no necesitan una cita. Otro ejemplo significativo es el hecho de que el manuscrito de Watson y Crick (1953) donde se describe por primera vez la estructura del ADN, hace más de siete décadas, tiene solamente 5,000 y 11,000 citas, en función de la fuente que se consulte. En México, la mayor productividad científica corresponde al área médica y le siguen las de ingeniería, agricultura, física y astronomía. Pero, ¿cómo se ha transformado el mundo de la publicación científica? Actualmente, el Estado subvenciona con financiamiento público las actividades o proyectos de las instituciones de educación superior, y los resultados de estas iniciativas académicas son dados a conocer a la comunidad científica global a través de las revistas. Los autores (científicos) entregan sus manuscritos a las editoriales sin costo alguno, los revisores (científicos) realizan una evaluación de pares sin costo alguno; por otro lado, las editoriales dueñas de las revistas venden sus productos a las bibliotecas y descargar un artículo científico por particulares tiene un costo elevado. Las bibliotecas y los usuarios pagan con fondos públicos. Por dar un ejemplo, para publicar en la revista Nature a través del acceso abierto “dorado” se pagan $12, 690 dólares. Para cerrar este círculo malévolo, el Estado, a través de sus mecanismos de evaluación, exige a los científicos indicadores individuales y la propia comunidad académica (en su participación en la evaluación de pares) imponen el imperativo de publicar en revistas de muy alto costo, lo que produce una enorme inequidad para países como el nuestro, que no alcanza una productividad científica mayor a uno por ciento. En resumen, el proceso de publicación científica está actualmente sostenido por incentivos perversos; la promoción académica está basada en un modelo de “publicar o perecer”. Con el afán de obtener prestigio, los investigadores buscan publicar en revistas del más alto impacto, que tienen un costo elevado, y los indicadores meritocráticos cuantitativos del mundo científico mantienen este círculo malicioso. En este contexto, hay una enorme epidemia de revistas y organización de conferencias denominadas “depredadoras”. Las revistas depredadoras son publicaciones “académicas” que priorizan el lucro sobre la integridad académica. Explotan el modelo de publicación de acceso abierto oneroso cobrando honorarios a los autores sin ofrecer la revisión por pares, la edición y otros servicios editoriales esperados. Estas revistas suelen engañar a los autores con información falsa o engañosa sobre su indexación, consejos editoriales y procesos de revisión por pares. Es difícil determinar el número exacto de revistas científicas depredadoras en 2025, pero en 2021, las estimaciones situaron la cifra en más de 15,000. Este es un problema muy serio porque este tipo de revistas dan voz al activismo pseudocientífico en posturas contra la vacunación, la negación del cambio climático, y la promoción de remedios potencialmente dañinos no probados con ensayos clínicos, entre otras.

También se ha popularizado publicar en revistas de acceso abierto bajo el modelo “dorado”, que suelen exigir a los autores el pago de una tarifa de procesamiento de artículos (también conocida como tarifa de publicación) de aproximadamente $2,500 dólares para cubrir los costos de poner su trabajo en línea. Si bien los autores pueden pagar estas tarifas con sus propios recursos, la mayoría de las veces suelen cubrirse por subvenciones de investigación, fondos públicos institucionales u otras fuentes. Ante esta perspectiva se han creado directorios con índices de revistas de acceso abierto de todo el mundo, impulsados por una comunidad científica en crecimiento, misma que está comprometida a garantizar que el contenido de calidad esté disponible en línea y gratuitamente para todos.

La semana pasada se dio la muy grata noticia de que la revista Salud Pública de México, con 66 años de existencia y anidada en el Instituto Nacional de Salud Pública de México, alcanzó un factor de impacto de 3.1, constituyéndose en una iniciativa ejemplar de revista gratuita de acceso abierto bajo el modelo “diamante” (sin cargos por publicar), que lidera las revistas científicas del área de salud pública en el ámbito iberoamericano, porque privilegia la publicación de resultados originales con métodos muy robustos y de interés por resolver grandes problemas de salud pública, lo que adicionalmente le confiere una propia identidad. Esto es una excelente noticia para el contexto científico de México y nos debe enorgullecer. ¿Qué depara el futuro de la publicación científica? Sin ninguna duda, debemos promover que los datos de investigación pública sean obligatoriamente públicos. También, para robustecer la transparencia, será necesaria la disponibilidad de los datos como un requisito para la publicación. La revisión por pares abierta (no ciega) antes de la publicación es una tendencia reciente. Con las plataformas digitales, las revistas impresas ya no deben existir. Finalmente, una recomendación para las autoridades que regulan la práctica de investigación en México es que deben promover incentivos para publicar en aquellas revistas que, siendo de carácter internacional, son publicadas en el país, y que muchos de los hallazgos sean de utilidad como recomendaciones de política pública.



* Especialistas en salud pública y comunicación científica

UNIÓN EUROPEA: «La ciencia abierta amenazada por la geopolítica y el capitalismo»

Publicado en Research information https://www.researchprofessionalnews.com/rr-news-europe-infrastructure-2025-10-open-science-threatened-by-...