lunes, 31 de enero de 2022

Preprints: La evolución de su papel en la comunicación científica

Publicado en blog Universo abierto
https://universoabierto.org/2022/01/13/preprints-la-evolucion-de-su-papel-en-la-comunicacion-cientifica/



Preprints: La evolución de su papel en la comunicación científica

Preprints: Their Evolving Role in Science Communication. Puebla, Iratxe, Jessica Polka, and Oya Y Rieger. Preprints: Their Evolving Role In Science Communication. E-book, Ann Arbor, MI: Against the Grain (Media), LLC, 2022, https://doi.org/10.3998/mpub.12412508.Preprints: Their Evolving Role in Science Communication

Texto completo



El documento analiza la historia y el papel de los preprints en las ciencias biológicas dentro del cambiante panorama de la ciencia abierta. Se centra en el crecimiento exponencial de los preprints como modelo de publicación y en los retos asociados al mantenimiento de la infraestructura técnica y al establecimiento de modelos de negocio sostenibles. Un preprint es un manuscrito académico publicado por el autor o autores en un repositorio o plataforma para facilitar el intercambio abierto y amplio de los primeros trabajos sin ninguna limitación de acceso. En la actualidad existen más de 60 servidores de preprints que representan distintos ámbitos temáticos y geográficos, cada uno de los cuales evoluciona de forma diferente en función de los patrones de adopción y la ética disciplinaria. Esta sesión informativa ofrecerá una ayuda inestimable a quienes deseen comprender este modelo de publicación en rápida evolución.


viernes, 28 de enero de 2022

Cómo influye la retórica de la excelencia en la evaluación de la investigación

Publicado en blog SciELO en Perspectiva
https://blog.scielo.org/es/2022/01/28/como-influye-la-retorica-de-la-excelencia-en-la-evaluacion-de-la-investigacion/#.YfRitvtBxD8


Cómo influye la retórica de la excelencia en la evaluación de la investigación


Por Lilian Nassi-Calò

Instituciones académicas de todo el mundo anuncian sus programas de enseñanza e investigación asociados con posiciones destacadas en rankings universitarios de renombre, exalumnos distinguidos o simplemente nombres de universidades que han sido sinónimo de éxito, prestigio y reputación durante siglos. La mayoría de las veces, el término “excelencia” se utiliza para describir la investigación que desarrollan, las facultades que agrupan y los ilustres laureados que han pasado por allí.

Samuel Moore y coautores, en un artículo de 2017,1 abordaron la “retórica de la excelencia” en el mundo académico y sus efectos nocivos, que distan mucho de calificar la ciencia de calidad – todo lo contrario, pues favorecen la falta de reproducibilidad, el fraude y la distribución ineficaz de las ayudas a la investigación, para, en definitiva, proponer estrategias para combatirlo.

El término “excelencia” no tiene un significado particular cuando se usa para describir instituciones académicas, y no se sabe si es posible reconocer la “excelencia” antes de observarla. El hecho es que no se sabe si la búsqueda de la “excelencia” y su uso para premiar o castigar a determinadas instituciones, investigadores o programas de investigación ayuda o dificulta el logro de sus objetivos.

Los autores del estudio, respaldados por la extensa literatura revisada, demuestran que el uso del término “excelencia” para guiar la asignación de recursos de investigación en realidad previene, en lugar de promover, la actividad científica y de investigación, mientras que al mismo tiempo desalienta el riesgo intelectual necesario para avanzar en las investigaciones más significativas que implican cambios de paradigma y la “ciencia normal” que permita consolidar el conocimiento a raíz de tales avances.

El artículo consta de tres partes. El primero discute la “excelencia” como retórica, en la que los autores argumentan que el término ampliamente utilizado no es una cualidad por descubrir, sino un mecanismo de intercambio lingüístico a través del cual los investigadores comparan conjuntos heterogéneos de prácticas disciplinarias. En la segunda parte, los autores investigan el uso de la “excelencia” como herramienta de evaluación y llegan a la conclusión de que distorsiona la práctica de la investigación y no proporciona un medio confiable para distinguir entre proyectos, instituciones o personas en competencia. Finalmente, proponen narrativas alternativas para la evaluación de investigaciones, investigadores e instituciones, basadas en la solidez y la capacidad. Donde hay más heterogeneidad y mayor oportunidad para la diversidad de resultados y perspectivas, creen los autores, se fortalece la investigación.

¿Qué es la “excelencia”?

El término encuentra numerosas definiciones en la literatura para referirse a la calificación de instituciones, actividades académicas e investigadores. Sin embargo, “no nos dice nada sobre la importancia de la ciencia y lo dice todo sobre quién decide.”2 Esta afirmación está en concordancia con el trabajo de otros autores, quienes en los últimos años han recomendado reformas en el proceso de revisión por pares.

Es importante, según los autores, evaluar el proceso de revisión por pares, como se ha propuesto, a través de la formación de los revisores, mayor transparencia y otras acciones. Sin embargo, uno de los autores citados, Lamont, opina que “las soluciones actuales a este problema – que consisten principalmente en cambiar los grados de anonimato o el punto en el que se realiza la revisión (pre o post-publicación) – son insuficientes y constituyen ‘garantías imperfectas'”, y añade que, “como muchas cuestiones de la comunicación científica, el reto de la revisión por pares no es técnico, sino social.”3

Diferentes disciplinas tienen diferentes interpretaciones de las medidas de “excelencia”. Los biólogos, por ejemplo, consideran que el número de publicaciones, la posición del autor y el número de citas son fuertes indicadores de desempeño, mientras que los académicos de literatura inglesa enumeran un alto número de palabras por artículo, autoría única y publicación o artículo de revisión como indicadores de prestigio. en una revista literaria de renombre. Por lo tanto, parece claro que las culturas evaluativas están operando incluso sin un consenso interno más allá de algunas categorías amplias de desempeño.

Sin embargo, preguntan los autores, ¿podría la “excelencia” ser un “descriptor lingüístico sin ningún significado preestablecido cuyo valor radica en la capacidad de capturar juicios de valor interdisciplinarios y demostrar la utilidad política de la inversión pública en investigación e instituciones de investigación?”1

Ni siquiera es útil de esta manera, concluyen. Debido a que no tiene contenido, el término sirve en el sentido más amplio solo como una afirmación de éxito comparativo (reivindicado): que una cosa, persona, actividad o institución puede ser “mejor”, más importante que otra (generalmente sin igual en ningún otro aspecto), y por lo tanto más merecedores de reconocimiento. Sin embargo, este énfasis en el reconocimiento, según Kohn4 y otros autores, es perjudicial para las verdaderas cualidades que se comparan.

¿La “excelencia” es buena para la investigación?

Los autores, como hemos visto, han argumentado que “la ‘excelencia’ sería una señal retórica utilizada para reivindicar valor por parte de instituciones, investigadores, proyectos o disciplinas esencialmente heterogéneas, y no una medida objetiva e intrínseca del mérito.” Pero, ¿existen criterios formales que podrían usarse para identificar la “excelencia” en una sola instancia de investigación en sus propios términos o en una disciplina en particular? Los autores concluyen que encontrar una respuesta a esta pregunta, que está en el centro del debate del artículo, es más difícil de lo que uno podría imaginar.

Lo que está en juego es la evaluación del mérito y el impacto del trabajo científico, y esto implica numerosos desafíos. Entre ellos se encuentra la no previsibilidad del impacto científico al momento de la publicación, o incluso en base a citas recibidas, Factor de Impacto (FI) y otros índices; la falta de correlación entre la concesión de ayudas a la investigación y la productividad posterior; el hecho de que artículos inicialmente rechazados por una revista terminen siendo publicados por otras de similar prestigio y circulación sin mayores cambios, y otros. Estos ejemplos son mencionados por los autores para resaltar la notoria incapacidad de la academia para evaluar la “excelencia”.

Más preocupante, agregan, es la considerable evidencia de falsos positivos en el proceso de revisión por pares. Son artículos que, en una primera evaluación, cumplen con los requisitos de “excelencia” estipulados por una determinada revista, organismo financiador o institución, pero no pasan cuando se someten a métricas posteriores. Por ejemplo, los artículos que han sido aceptados para su publicación en una revista se vuelven a enviar con breves cambios. De estos, solo el 8% fueron detectados por los editores o revisores. De los que no fueron detectados, el 90% fueron rechazados por fallas metodológicas y/u otras razones por las mismas revistas que habían publicado previamente estos artículos. Estos artículos “nuevos” fueron rechazados por no ser lo suficientemente “excelentes” por revistas que previamente habían decidido que eran lo suficientemente “excelentes”.

De manera similar, un estudio5 mostró que los autores muy citados tenían menos capacidad para liderar importantes subvenciones de investigación en biomedicina que los autores menos citados pero socialmente bien conectados asociados con grupos de estudio y paneles de revisión de agencias de financiación. También en esta dirección, Fang, et al.6 concluyó que las propuestas de becas de investigación otorgadas por los National Institutes of Health (NIH) de los Estados Unidos definidas por revisión por pares mostraron una baja correlación con la productividad de los autores premiados, medida por las citas de publicaciones producidas bajo la subvención. Este resultado también evidenció un sesgo por parte de las agencias financiadoras en contra de proyectos altamente innovadores, que apenas son contemplados.

Con base en el creciente número de retractaciones publicadas, incluso en revistas de renombre, los casos de fraude y errores han ido en aumento en la literatura científica. La mayoría de las retractaciones se deben a fraude, publicación duplicada y plagio (67,4%), y solo una pequeña parte a errores (21,3%). Aún más preocupantes son los casos de falsos positivos, es decir, estudios que no se pueden replicar. Puede parecer contra-intuitivo, pero numerosos autores han postulado que el deseo de tener éxito y producir investigaciones de “excelencia” puede llevar a los investigadores a ir más allá de la línea ética y presentar investigaciones fraudulentas, que contienen errores sustanciales y, a menudo, irreproducibles.

Investigadores del Reino Unido y Australia incluso admitieron en entrevistas realizadas en 20167 que extrapolaban las afirmaciones de los impactos realizados en las propuestas de ayuda a la investigación, diciendo que se ha convertido en un “aspecto normal y necesario, aunque lamentable, de la cultura académica, considerando la búsqueda de recursos de investigación competitivos”, infiriendo que se trata de una práctica ampliamente difundida. “Aquí vemos cómo un requisito competitivo real o percibido de ‘excelencia’, combinado con una falta de confianza en la capacidad de los asesores para detectar afirmaciones falsas, conduce a una concepción de ‘excelencia’ que es puro juego: un concepto definido por quien se las arregla para salirse con la suya afirmando (en lugar de mostrar) ‘excelencia’”.

La publicación de artículos fraudulentos, o con algún tipo de error, sería perjudicial para la ciencia, pero no es la única consecuencia de cómo el foco en la “excelencia” perjudica a la investigación. Esta práctica acaba favoreciendo lo que se conoce como “efecto Mateo”,8 es decir, la distribución desigual de los recursos de investigación entre investigadores e instituciones bien dotadas de ayudas, en detrimento de las que no lo están. Este círculo vicioso crea distorsiones a lo largo del ciclo de investigación, generando sesgos en contra de proyectos de investigación innovadores, o autores de carrera temprana, desanimando la investigación y publicación de “ciencia normal”, incluidos los estudios de replicación, que son críticos para la viabilidad del proceso de investigación, sin ser convincente. suficiente para sugerir que sus autores son “excelentes”.

Las instrucciones a los autores de la mayoría de las revistas “excelentes” indican una predilección por los artículos originales y los resultados positivos. Esta categoría no se ajusta a los estudios de replicación, ya que no existen incentivos estructurales para realizar estudios que “simplemente” pueden revalidar (o no) los estudios existentes. Sin embargo, el hecho de que la literatura contenga estudios cuyos resultados no son reproducibles tiene consecuencias potencialmente peligrosas ya que puede conducir a conductas ineficaces o inseguras, o servir de base para futuros estudios cuyo fundamento no sea cierto.

Por último, pero no menos importante, el impacto negativo de la “excelencia” puede tener lugar de formas más sutiles que las que hemos visto hasta ahora. Al utilizar los estándares norteamericanos y europeos de “excelencia” en la capacidad de investigación como indicadores de desempeño, los países del sur global pueden experimentar el efecto paradójico de reducir esta capacidad al reducir el financiamiento para proyectos de investigación “normales” o alejándose de las prioridades nacionales.

Del mismo modo, puede haber una intensificación del prejuicio contra las mujeres y los grupos minoritarios en la concesión de becas de investigación, ya que estos grupos, al estar infrarrepresentados, tienden a perpetuarse de esta manera. Es mucho más fácil si su apariencia, estándares de trabajo y objetivos de investigación están en línea con la experiencia previa de sus árbitros. En ausencia de medidas correctivas sustanciales y conciencia, el enfoque en la “excelencia” continuará manteniendo, en lugar de superar, las barreras sociales para la participación en la investigación de los grupos actualmente subrepresentados.

Narrativas alternativas: trabajando por el cambio

La cuestión que surge, tras exponer numerosos ejemplos de cómo la “excelencia” es un criterio poco fiable para asignar parámetros de calidad y validez, es proponer formas alternativas de evaluar la actividad investigadora y su comunicación.

El mayor desafío, creen los autores, está en la infraestructura de financiación de la investigación. Los recursos públicos y privados para financiar proyectos de investigación e innovación son cada vez más escasos y la competencia implica prioridades y juicio de valores en decisiones difíciles de tomar.

Cabe mencionar el informe Publons de 2019 (publicado dos años después del artículo que analizamos en este post), Grant Review in Focus,9 con los resultados recopilados a partir de las respuestas de más de 11.000 investigadores, más de 800 financiadores en 95 países, algunos de los cuales fueron entrevistados para obtener información sobre cómo identificar mejor los proyectos con el mayor potencial de financiación, el tema de la publicación en este blog:10

Una diferencia clave entre la revisión por pares de publicaciones y la ayuda a la investigación radica en el hecho de que la primera, como ocurre después de realizada la investigación, influye en el rumbo que tomará la investigación en un área determinada al determinar qué se publicará y dónde, lo que en consecuencia influirá en la carrera del investigador. La evaluación de las ayudas a la investigación, en cambio, tiene una influencia más directa sobre un área determinada del conocimiento, ya que determina si la investigación será financiada o no y, en este último caso, puede que nunca se materialice. Los criterios utilizados por los revisores y el peso de cada uno son a menudo decisiones personales, o pueden ser proporcionados formalmente por los propios financiadores. Por eso, estos revisores tienen enormes desafíos en sus manos a la hora de asignar méritos a los proyectos, ya que terminan teniendo una gran influencia en la investigación de toda una zona o de un país.10

En muchos países líderes en investigación y desarrollo, como Estados Unidos, Canadá, Reino Unido y naciones con tradición investigadora en Europa, es común que las instituciones más reconocidas (y más ricas) concentren las ayudas públicas a la investigación (el mencionado “efecto Mateo”). Sin embargo, ha habido propuestas recientes para una redistribución más equitativa de los recursos entre grupos de investigación más pequeños y propuestas de estrategias alternativas después de darse cuenta de que una alternativa más productiva sería distribuir los recursos en función de la diversidad en lugar de una percepción de “excelencia”. o incluso la proposición de que distribuir los recursos disponibles entre todos los solicitantes sería más económico y productivo que presentar propuestas para su revisión y selección, o incluso decidir por sorteo quién recibirá las ayudas. En cualquier caso, en lugar de buscar la “excelencia”, los árbitros que evalúen propuestas de ayudas a la investigación deberían buscar algunos criterios básicos de calificación, como la “credibilidad” o la “validez”, que permitan pasar de la evaluación de resultados a la evaluación de procedimiento.

Los autores postulan que centrarse en la “validez”, la “solidez” y la “capacidad” en lugar de la retórica de la “excelencia” puede ofrecer alternativas concretas. Parte de la premisa de que “una investigación válida o sólida es una investigación de calidad” y “más investigación es mejor que poca” se enfoca en el rigor, la integridad y los estándares adecuados de descripción, evidencia y probidad, en lugar de vagas atribuciones de superioridad. Las cualidades mencionadas se pueden comparar y medir objetivamente. La colección Public Library of Science (PLoS) lanzada en 2001 con PLoS ONE y hoy con 12 revistas, tiene como principal política editorial, además del acceso abierto, la publicación de artículos técnicamente sólidos, sin considerar el grado de innovación o impacto, haciendo de PLoS la mayor colección de mega revistas de acceso abierto que existe.

El tema está lejos de ser agotado por el artículo, reconocen sus autores. De hecho, este artículo es parte de una colección reunida por Nature por el Prof. James Wilsdon titulado The future of Research Assessment,11 que desde 2017 incluye nuevas publicaciones sobre el tema, centrándose en la gestión de los recursos de financiación de la investigación del Reino Unido, Australia, Estados Unidos y países europeos.

La solución, postulan, “estaría en la redistribución de recursos a la academia y no en la concentración de estos en las instituciones que se autodenominan ‘de excelencia’, ya que esto no puede ser reconocido ni definido consensualmente. La redistribución aumentaría la capacidad y diversificaría el ámbito de actividad, centrándose en la práctica de la investigación, incluida su comunicación. Adoptando este enfoque, será posible reconocer una actividad académica sólida y válida, y con ello, construir culturas y comunidades en torno a este reconocimiento. Y eso sería exelente.”11

Notas

1. MOORE, S., et al. “Excellence R Us”: university research and the fetishisation of excellence. Palgrave Comm. [online]. 2017, vol. 3, 16105 [viewed 28 January 2022]. https://doi.org/10.1057/palcomms.2016.105. Available from: https://www.nature.com/articles/palcomms2016105#citeas

2. STILGOE, J. Against Excellence [online]. The Guardian. 2014 [viewed 28 January 2022]. Available from: https://www.theguardian.com/science/political-science/2014/dec/19/against-excellence.

3. LAMONT, M. How Professors Think: Inside the Curious World of Academic Judgment. Cambridge: Harvard University Press, 2009.

4. KOHN, A. Punished by Rewards: The Trouble with Gold Stars, Incentive Plans, A’s, Praise, and Other Bribes. Boston: Houghton Mifflin, 1999.

5. NICHOLSON, J.M. and IOANNIDIS, J.P.A. Research grants: Conform and be funded. Nature [online]. 2012, vol. 492, no. 7427, pp. 34–36 [viewed 28 January 2022]. https://doi.org/10.1038/492034a. Available from: https://www.nature.com/articles/492034a

6. FANG, F.C., BOWEN, A. and CASADEVALL, A. NIH peer review percentile scores are poorly predictive of grant productivity. eLife [online]. 2016, vol. 5, e13323 [viewed 28 January 2022]. https://doi.org/10.7554/eLife.13323. Available from: https://elifesciences.org/articles/13323

7. CHUBB, J. and WATERMEYER, R. Artifice or integrity in the marketization of research impact? Investigating the moral economy of (pathways to) impact statements within research funding proposals in the UK and Australia. Studies in Higher Education [online]. 2016, vol. 42, no. 12, pp. 1–13 [viewed 28 January 2022]. https://doi.org/10.1080/03075079.2016.1144182. Available from: https://www.tandfonline.com/doi/full/10.1080/03075079.2016.1144182

8. Porque a cualquiera que tuviere, le será dado, y tendrá más; y al que no tuviere, aun lo que tiene le será quitado. (Mateo, 25:29)

9. Grant Review in Focus [online]. Publons. 2019 [viewed 28 January 2022]. Available from: https://publons.com/community/gspr/grant-review

10. NASSI-CALÒ, L. Una mirada a la revisión por pares de propuestas de becas de investigación [online]. SciELO en Perspectiva, 2019 [viewed 27 January 2022]. Available from: https://blog.scielo.org/es/2019/12/04/una-mirada-a-la-revision-por-pares-de-propuestas-de-becas-de-investigacion/

11. The future of research assessment [online]. Nature Humanities & Social Science Communications. 2016 [viewed 28 January 2022]. Available from: https://www.nature.com/collections/kzffqpcdch

Referências

CHUBB, J. and WATERMEYER, R. Artifice or integrity in the marketization of research impact? Investigating the moral economy of (pathways to) impact statements within research funding proposals in the UK and Australia. Studies in Higher Education [online]. 2016, vol. 42, no. 12, pp. 1–13 [viewed 28 January 2022]. https://doi.org/10.1080/03075079.2016.1144182. Available from: https://www.tandfonline.com/doi/full/10.1080/03075079.2016.1144182

EYRE-WALKER, A. and STOLETZKI, N. The assessment of science: The relative merits of post-publication review, the impact factor, and the number of citations. PLoS Biology [online]. 2013, vol. 11, no. 10, e1001675 [viewed 28 January 2022]. https://doi.org/10.1371/journal.pbio.1001675. Available from: https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.1001675

FANG, F.C., BOWEN, A. and CASADEVALL, A. NIH peer review percentile scores are poorly predictive of grant productivity. eLife [online]. 2016, vol. 5, e13323 [viewed 28 January 2022]. https://doi.org/10.7554/eLife.13323. Available from: https://elifesciences.org/articles/13323

FANG, F.C., STEEN, R.G. and CASADEVALL, A. Misconduct accounts for the majority of retracted scientific publications. Proc Natl Acad Sci USA [online]. 2012, vol. 109, no. 42, pp. 17028–17033 [viewed 28 January 2022]. https://doi.org/10.1073/pnas.1212247109. Available from: https://www.pnas.org/content/109/42/17028

GORDON, R. and POULIN, B.J. Cost of the NSERC science grant peer review system exceeds the cost of giving every qualified researcher a baseline grant. Accountability in Research [online]. 2009, vol. 16, no. 1, pp. 13–40 [viewed 28 January 2022]. https://doi.org/10.1080/08989620802689821. Available from: https://www.tandfonline.com/doi/full/10.1080/08989620802689821

Grant Review in Focus [online]. Publons. 2019 [viewed 28 January 2022]. Available from: https://publons.com/community/gspr/grant-review

KOHN, A. Punished by Rewards: The Trouble with Gold Stars, Incentive Plans, A’s, Praise, and Other Bribes. Boston: Houghton Mifflin, 1999.

KUHN, T.S. The Structure of Scientific Revolutions, Fourth edition. Chicago: University of Chicago Press, 2012 (1962).

LAMONT, M. How Professors Think: Inside the Curious World of Academic Judgment. Cambridge: Harvard University Press, 2009.

MOORE, S., et al. “Excellence R Us”: university research and the fetishisation of excellence. Palgrave Comm. [online]. 2017, vol. 3, 16105 [viewed 28 January 2022]. https://doi.org/10.1057/palcomms.2016.105. Available from: https://www.nature.com/articles/palcomms2016105#citeas

NASSI-CALÒ, L. Una mirada a la revisión por pares de propuestas de becas de investigación [online]. SciELO en Perspectiva, 2019 [viewed 27 January 2022]. Available from: https://blog.scielo.org/es/2019/12/04/una-mirada-a-la-revision-por-pares-de-propuestas-de-becas-de-investigacion/

NICHOLSON, J.M. and IOANNIDIS, J.P.A. Research grants: Conform and be funded. Nature [online]. 2012, vol. 492, no. 7427, pp. 34–36 [viewed 28 January 2022]. https://doi.org/10.1038/492034a. Available from: https://www.nature.com/articles/492034a

PETERS, D.P. and CECI, S.J. Peer-review practices of psychological journals: The fate of published articles, submitted again. Behavioral and Brain Sciences [online]. 1982, vol. 5, no. 2, pp. 187–195 [viewed 28 January 2022]. https://doi.org/10.1017/s0140525x00011183. Available from: https://www.cambridge.org/core/journals/behavioral-and-brain-sciences/article/abs/peerreview-practices-of-psychological-journals-the-fate-of-published-articles-submitted-again/AFE650EB49A6B17992493DE5E49E4431

STILGOE, J. Against Excellence [online]. The Guardian. 2014 [viewed 28 January 2022]. Available from: https://www.theguardian.com/science/political-science/2014/dec/19/against-excellence.

The future of research assessment [online]. Nature Humanities & Social Science Communications. 2016 [viewed 28 January 2022]. Available from: https://www.nature.com/collections/kzffqpcdch

 

Sobre Lilian Nassi-Calò

Lilian Nassi-Calò estudió química en el Instituto de Química de la USP, tiene un doctorado en Bioquímica por la misma institución y un pos doctorado como becaria de la Fundación Alexander von Humboldt en Wuerzburg, Alemania. Después de concluir sus estudios, fue docente e investigadora en el IQ-USP. Trabajó en la industria privada como química industrial y actualmente es Coordinadora de Comunicación Científica en BIREME/OPS/OMS y colaboradora de SciELO.

 Traducido del original en portugués por Ernesto Spinak.

OpenAlex: ya está aquí el sucesor de Microsoft Academic Graph con 200 millones de documentos científicos

Publicado en Nature
https://www.nature.com/articles/d41586-022-00138-y 

Se lanza un índice abierto masivo de documentos académicos

OpenAlex cataloga cientos de millones de documentos científicos y establece conexiones entre ellos.

Dalmeet Singh Chawla

Se ha lanzado un ambicioso índice gratuito de más de 200 millones de documentos científicos que cataloga las fuentes de publicación, la información de los autores y los temas de investigación.

El índice, llamado OpenAlex en honor a la antigua Biblioteca de Alejandría (Egipto), también pretende trazar conexiones entre estos puntos de información para crear una base de datos completa e interconectada del sistema de investigación mundial, dicen sus fundadores. La base de datos, que se puso en marcha el 3 de enero, sustituye a Microsoft Academic Graph (MAG), una alternativa gratuita a las plataformas por suscripción como Scopus, Dimensions y Web of Science que dejó de funcionar a finales de 2021.

"Se trata de reunir muchas bases de datos de forma inteligente", afirma Euan Adie, fundador de Overton, una empresa con sede en Londres que rastrea la investigación citada en documentos políticos. Overton había obtenido sus datos de varias fuentes, como MAG, ORCID, Crossref y directamente de los editores, pero ahora ha pasado a utilizar únicamente OpenAlex, con la esperanza de facilitar el proceso.

Mejora de la cobertura

La decisión de Microsoft de cerrar MAG (announced last May), anunciada el pasado mes de mayo, preocupó a algunos académicos y otras personas que utilizaban sus datos para realizar estudios y crear herramientas de investigación.

En respuesta al cierre de MAG, la empresa de servicios académicos sin ánimo de lucro OurResearch, de Vancouver (Canadá), creó OpenAlex, utilizando parte de una subvención de 4,5 millones de dólares de la organización benéfica londinense Arcadia Fund. Actualmente, el índice es accesible a través de una interfaz de programación de aplicaciones, o API, que puede realizar búsquedas complejas. Está previsto que en febrero se lance una interfaz de motor de búsqueda (search-engine interface) más sencilla.

OpenAlex extrae sus datos de los registros existentes de MAG y de otras fuentes, como los identificadores de Wikidata, ORCID, Crossref y ROR, dice Jason Priem, cofundador de OurResearch.

La herramienta también está integrada con la base de datos Unpaywall, que contiene más de 30 millones de artículos de acceso abierto que Priem y la cofundadora de OurResearch, Heather Piwowar, lanzaron en 2017 (launched in 2017). "Ahora tenemos una cobertura de acceso abierto mucho mejor que la que tenía MAG", dice Priem. "No solo podemos decirte dónde viven las copias de lectura libre de cualquier artículo en particular, sino que también podemos decirte la licencia y la versión de ese artículo".

Fácil de configurar

OpenAlex también es gratuito, gracias al patrocinio de Amazon Web Services, y no requiere registro ni información de acceso, lo que hace que el proceso sea más fácil de usar, dice Priem. Esto difiere de MAG, para el que los usuarios tenían que iniciar sesión en Azure, el sistema de alojamiento en la nube de Microsoft, y pagar una pequeña cuota para descargar su conjunto de datos. Priem dice que su empresa podría considerar la posibilidad de lanzar un nivel premium de pago de OpenAlex para los usuarios que quieran un acceso súper rápido, pero siempre habrá una versión actualizada y gratuita.

Está "escrito de tal manera que es muy fácil de usar", dice Adie. Añade que sólo tardó unos 20 minutos en empezar a utilizar OpenAlex, frente a los tres o cuatro días que tardaba con MAG. "El inconveniente es que Microsoft tenía mucha capacidad técnica que podía aplicar a Microsoft Academic. Así que tendremos que ver cómo le va a OurResearch sin eso", dice Adie. 

Roar Bakken Stovner, que estudia los patrones de citación de los investigadores en la Universidad Metropolitana de Oslo, dice que le llevó unas dos horas empezar a trabajar con OpenAlex, frente a una semana con MAG. "Para alguien que tenga más conocimientos informáticos, MAG puede ser más fácil", dice. "Para los investigadores que quieran probar pequeños proyectos por su cuenta, OpenAlex será mucho más fácil para empezar".

Frode Opdahl, director ejecutivo de Keenious, una empresa de nueva creación con sede en Tromsø (Noruega), que escanea millones de documentos para sugerir referencias relevantes, dice que está satisfecho con la documentación publicada sobre OpenAlex. "Hace que sea mucho más fácil trabajar con él e implementarlo en nuestro producto", afirma.


****************************

  • 24 January 2022

Massive open index of scholarly papers launches

OpenAlex catalogues hundreds of millions of scientific documents and charts connections between them.


An ambitious free index of more than 200 million scientific documents that catalogues publication sources, author information and research topics, has been launched.

The index, called OpenAlex after the ancient Library of Alexandria in Egypt, also aims to chart connections between these data points to create a comprehensive, interlinked database of the global research system, say its founders. The database, which launched on 3 January, is a replacement for Microsoft Academic Graph (MAG), a free alternative to subscription-based platforms such as Scopus, Dimensions and Web of Science that was discontinued at the end of 2021.

“It’s just pulling lots of databases together in a clever way,” says Euan Adie, founder of Overton, a London-based firm that tracks the research cited in policy documents. Overton had been getting its data from various sources, including MAG, ORCID, Crossref and directly from publishers, but has now switched to using only OpenAlex, in the hope of making the process easier. 

Improved coverage

Microsoft’s move to close MAG, announced last May, worried some academics and others who used its data to conduct studies and build research tools.

In response to MAG’s closure, non-profit scholarly services firm OurResearch in Vancouver, Canada, created OpenAlex, using part of a US$4.5-million grant from London-based charity Arcadia Fund. The index is currently accessible through an application programming interface, or API, that can perform complex searches. A simpler search-engine interface is scheduled to launch in February.

OpenAlex draws its data from MAG’s existing records and from other sources including Wikidata identifiers, ORCID, Crossref and ROR, says Jason Priem, co-founder of OurResearch.

The tool is also integrated with the Unpaywall database, which contains more than 30 million open-access articles that Priem and OurResearch co-founder Heather Piwowar launched in 2017. “We now have much better coverage of open access than MAG ever did,” Priem says. “Not only can we tell you where the free-to-read copies of any particular article live, but we can also tell you the licence and the version of that article.”

Priem says that OpenAlex updates every fortnight by bringing in more data from its sources. The tool goes a step further towards openness than MAG did, because OpenAlex’s underlying code is freely available under a CC0 copyright licence for anyone to build on, says Priem. That means that if OpenAlex were to be discontinued, any researcher can pick up where Priem left off instead of having to rebuild the whole database from scratch.

Easy set-up

OpenAlex is also free to use, thanks to sponsorship from Amazon Web Services, and requires no registration or log-in information, making the process more user-friendly, says Priem. This differs from MAG, for which users had to log into Azure, Microsoft’s cloud-hosting system, and pay a small fee to download their data set. Priem says that his firm might consider rolling out a premium, pay-to-use tier of OpenAlex for users who want super-fast access, but a free up-to-date version will always be available.

It’s “written in such a way that’s very easy for somebody to pick up and use”, says Adie. He adds that it took him only about 20 minutes to get started on OpenAlex, compared with three to four days with MAG. “The downside is that Microsoft had a lot of technical capability that they could apply to Microsoft Academic. So we’ll have to see how OurResearch does without that,” Adie says. 

Roar Bakken Stovner, who studies researchers’ citations patterns at Oslo Metropolitan University, says that it took him around two hours to start working with OpenAlex, compared with around a week with MAG. “For somebody who is more computer savvy, MAG might be easier,” he says. “For researchers who want to try small projects on their own, OpenAlex will be way easier to start with.”

Frode Opdahl, chief executive of Keenious, a start-up firm based in Tromsø, Norway, which scans millions of papers to suggest relevant references, says he’s pleased with the documentation published about OpenAlex. “It makes it a lot easier to work with and implement into our product,” he says.

doi: https://doi.org/10.1038/d41586-022-00138-y


**********

Cuba: internacionalismo de vacunas

Publicado en La Jornada
https://www.jornada.com.mx/notas/2022/01/27/mundo/cuba-internacionalismo-de-vacunas-20220127/


Cuba: internacionalismo de vacunas

Periódico La Jornada
jueves 27 de enero de 2022 , p. 22

Cuba, no obstante el asfixiante bloqueo de Estados Unidos, está lista para enviar a precios solidarios decenas de millones de dosis de sus vacunas contra el covid-19, a países de bajos ingresos. Así se anunció el 25 de enero por altos directivos del Ministerio de Salud Pública y de la industria biotecnológica cubanos en una conferencia internacional organizada en La Habana por una delegación de la Internacional Progresista (IP) (https://bit.ly/34dwm5i), que viajó a la isla con el propósito de conocer pormenores sobre la creación y producción de sus tres vacunas y sus dos candidatos vacunales, así como promover su conocimiento y socialización en el sur global ante el avance arrollador del covid-19 y la obscena e injusta desigualdad que en la inmunización sufren los países pobres. Cuba, con sus inmunógenos Abdala, Soberana 02 y Soberana Plus, es el primer país de América Latina y el Caribe en lograr sus propias vacunas y con ellas, además, convertirse en el primer país del mundo con más dosis aplicadas por 100 habitantes, por delante de Chile, Emiratos Árabes Unidos y China. A la alta eficacia de los antígenos cubanos, su decisivo papel en la contención de la pandemia en la isla y a los productos y protocolos cubanos contra el covid-19 dedicaremos la segunda parte de esta entrega.

A la conferencia asistieron periodistas, fabricantes de vacunas, expertos en salud pública y representantes políticos de otros países, quienes recibieron una explicación y formularon preguntas a los representantes cubanos. Además de los precios solidarios para países de bajos ingresos, Cuba reiteró que también realizará transferencia de tecnología para producción local en aquellas naciones donde existan condiciones, como ha hecho ya en los casos de Vietnam e Irán. De igual forma, considerando que hay países donde no existe suficiente personal calificado ni infraestructura para realizar una vacunación masiva, La Habana ofrece enviar allí, o ampliar, sus brigadas médicas del contingente Harry Reeve ya existentes en esos lugares, para ofrecer formación y asesoría al personal que llevará a cabo las campañas de vacunación en los estados y territorios asociados a esta iniciativa. Esto es muy importante, pues tanto la organización humanitaria CARE como la Organización Mundial de la Salud (OMS) han alertado sobre las vacunas que no pueden llegar a los brazos de sus destinatarios en ciertos países pobres por no existir la organización y la capacidad necesarias para el despliegue y aplicación de los inmunógenos. En lo referente a la transferencia de tecnología, ya Cuba está en conversaciones con más de 15 países para producir vacunas en sus instalaciones. Las vacunas cubanas están basadas en plataformas de subunidades de proteínas ya probadas a lo largo de los años, lo que hace muy fácil su almacenamiento, pues no requieren de temperaturas de congelación.

En esta actividad, Cuba tiene una exitosa experiencia. Por ejemplo, en 2014 y 2015, médicos cubanos, a solicitud de la ONU y la OMS, trabajaron contra el ébola en Guinea, Sierra Leone y Liberia, donde redujeron la mortalidad de los pacientes de 50 a 20 por ciento e introdujeron un eficaz programa de educación preventiva para impedir la propagación de la enfermedad. En enero de 2015, Cuba había entrenado a alrededor de 13 mil personas para enfrentar el ébola en 28 países africanos, además de 68 mil en América Latina y 68 en el Caribe. Desde el comienzo de la pandemia unos 40 países y territorios en cinco continentes han recibido brigadas médicas cubanas para combatir el mal.

En su turno en la conferencia, David Adler, coordinador general de la IP y jefe de su delegación a Cuba, expresó: “Los anuncios realizados hoy por científicos cubanos deberían marcar un punto de inflexión en la historia de la pandemia del covid-19. Este paquete que salva vidas marca la pauta del internacionalismo de las vacunas y el camino hacia un nuevo orden internacional de la salud, en el cual la salud pública y la ciencia se sitúan por encima del beneficio privado y el nacionalismo mezquino”.

Hace unos días la IP, que agrupa a miles de activistas de izquierda en el mundo, denunció que el banco holandés ING, plegándose a la aplicación extraterritorial del bloqueo a Cuba por Washington, había bloqueado los fondos destinados al viaje de su delegación a la isla. Este es un buen ejemplo del contraste entre la tradicional política solidaria de Cuba con los pueblos y el criminal cerco estadunidense contra la isla que Washington, en un acto de cinismo sin límites, aduce que su objetivo es defender los derechos humanos y castigar a los líderes cubanos. Es evidente que no conforme con su intento de matar por hambre y enfermedades a la población de la isla, también busca impedir que sus vacunas protejan la salud de millones de personas y salvar infinidad de vidas en el planeta.

Twitter: @aguerraguerra

LIBRO: Plan S de choque: la iniciativa de acceso abierto que cambió la cara de la investigación mundial

 Libro disponible enhttps://www.ubiquitypress.com/site/books/m/10.5334/bcq/




Plan S for Shock Science. Shock. Solution. Speed

 Download:



Plan S de choque: la iniciativa de acceso abierto que cambió la cara de la investigación mundial.

Esta es la historia de la publicación en acceso abierto: por qué es importante ahora y para el futuro.

En un mundo en el que la información nunca ha sido tan accesible y en el que las respuestas están disponibles al alcance de la mano, estamos más hambrientos de hechos que nunca, algo que la crisis de Covid-19 ha puesto de manifiesto. Y, sin embargo, los muros de pago colocados por editoriales multimillonarias siguen impidiendo a millones de personas acceder a conocimientos científicos de calidad, y la confianza del público en la ciencia está amenazada.

El 4 de septiembre de 2018, se dio a conocer una nueva y audaz iniciativa conocida como "Plan S", que dio el empujón a un cambio de actitud a nivel mundial hacia la investigación de acceso abierto. Por primera vez, las agencias de financiación de todos los continentes unieron sus fuerzas para imponer nuevas normas sobre la publicación de la investigación, con el objetivo de que algún día toda la investigación sea gratuita y esté disponible para todos.

Lo que siguió fue un debate de proporciones mundiales, ya que las partes interesadas se preguntaron: ¿Quién tiene derecho a acceder a la investigación financiada con fondos públicos? ¿Será posible imponer el cambio en un mercado multimillonario dominado por cinco grandes actores?

Aquí, el fundador del sistema, Robert-Jan Smits, presenta un argumento convincente a favor del acceso abierto y revela por primera vez cómo se dispuso a hacer realidad su controvertido plan, así como algunos de los retos a los que se enfrentó en el camino. Al contar su historia, Smits sostiene que la crisis de Covid-19 ha puesto de manifiesto que el sistema tradicional de publicación académica es insostenible.


*****************************

Plan S for shock: the open access initiative that changed the face of global research.

This is the story of open access publishing – why it matters now, and for the future.

In a world where information has never been so accessible, and answers are available at the touch of a fingertip, we are hungrier for the facts than ever before – something the Covid-19 crisis has brought to light. And yet, paywalls put in place by multi-billion dollar publishing houses are still preventing millions from accessing quality, scientific knowledge – and public trust in science is under threat.

On 4 September 2018, a bold new initiative known as ‘Plan S’ was unveiled, kickstarting a world-wide shift in attitudes towards open access research. For the first time, funding agencies across continents joined forces to impose new rules on the publication of research, with the aim of one day making all research free and available to all.

What followed was a debate of global proportions, as stakeholders asked: Who has the right to access publicly-funded research? Will it ever be possible to enforce change on a multi-billion dollar market dominated by five major players?

Here, the scheme’s founder, Robert-Jan Smits, makes a compelling case for Open Access, and reveals for the first time how he set about turning his controversial plan into reality – as well as some of the challenges faced along the way. In telling his story, Smits argues that the Covid-19 crisis has exposed the traditional academic publishing system as unsustainable.

jueves, 27 de enero de 2022

Nuevo indicador: «Collab-CNCI» Clarivate propone nuevo método para analizar las citas

Publicado en blog Universo abierto
https://universoabierto.org/2022/01/27/clarivate-propone-un-nuevo-metodo-para-analizar-el-credito-que-reciben-los-autores-de-los-articulos-academicos-a-traves-de-las-citas/



Clarivate propone un nuevo método para analizar el crédito que reciben los autores de los artículos académicos a través de las citas

Jonathan Adams, David Pendlebury and Ross Potter. Global Research Report Making it count: Research credit management in a collaborative world. Institute for Scientific Information (ISI)™, 2022

Texto completo



Clarivate ha publicado un nuevo informe del Institute for Scientific Information™ de la compañía que propone un nuevo método para analizar el crédito que reciben los autores de trabajos académicos a través de las citas.

Este informe propone un nuevo método para analizar el crédito de los trabajos académicos y sus citas. Es complementario y no contradictorio, del análisis de las citas fraccionadas.

En todo el panorama de la investigación, la recepción de crédito a través de la citación de fuentes influye en la motivación y la reputación. El crédito por la publicación de investigaciones académicas suele afectar al empleo, la promoción y la financiación a nivel individual, así como a la financiación y la toma de decisiones de las instituciones de investigación académica y los países.

En un mundo cada vez más global y colaborativo, en el que aumenta rápidamente el número de artículos que nombran a docenas o incluso cientos de investigadores como autores, es esencial la necesidad de un análisis informado y basado en datos sobre el crédito que funcione en todas las disciplinas y regiones de la investigación. Sin embargo, los métodos existentes para analizar los créditos pueden verse distorsionados por recuentos de autores excepcionalmente elevados.

Hacer que cuente: La gestión de los créditos de investigación en un mundo colaborativo propone un nuevo indicador, el «Collab-CNCI» (Collab-CNCI) como una posible solución.

El informe no sólo confirma que los trabajos altamente colaborativos pueden distorsionar los resultados resumidos a nivel nacional e institucional, sino que también muestra cómo sucede. Destaca los aspectos clave de los logros y muestra dónde las instituciones generan un crédito académico significativo a partir de las citas de sus trabajos más nacionales.

Collab-CNCI complementa el ya existente indicador de impacto de citas normalizado por categorías creado por el CWTS de la Universidad de Leiden. Pero el recuento de citas acumulado para cada artículo se normaliza con respecto a otros artículos del mismo año de publicación, la misma categoría temática, el mismo tipo de documento y, fundamentalmente, el mismo tipo de colaboración.

Ludo Waltman, catedrático de Estudios Científicos Cuantitativos del Centro de Estudios Científicos y Tecnológicos (CWTS) de la Universidad de Leiden, ha declarado lo siguiente «El creciente nivel de colaboración en la ciencia mundial plantea cuestiones difíciles en relación con el diseño y la interpretación de los indicadores bibliométricos. Es absolutamente esencial desarrollar una mejor comprensión de la compleja interacción entre la colaboración científica y el impacto de las citas. Celebro la contribución del Instituto de Información Científica, que forma parte de Clarivate, para abordar esta difícil cuestión».

El Instituto de Información Científica invita a los usuarios y gestores de la investigación a comentar las ventajas relativas del Collab-CNCI en comparación y como complemento de otros métodos para permitir decisiones equilibradas y oportunas a nivel individual, institucional y nacional. Por favor, envíe sus comentarios a ISI@clarivate.com.


Plan 2.0 para el acceso abierto: ¿un plan o una nueva ambigüedad?

Publicado en THE Times Higher Education https://www.timeshighereducation.com/news/plan-s-20-open-access-plan-bold-may-prove-ineffective   El...