martes, 1 de febrero de 2022

La muerte de las revistas académicas es muy exagerada, dice la presidenta del ERC

Publicado en THE Times Higher Education
https://www.timeshighereducation.com/news/death-academic-journal-greatly-exaggerated-says-erc-president?utm_source=newsletter&utm_medium=email&utm_campaign=editorial-daily&mc_cid=07a2d9ff7a&mc_eid=d622713526 



La muerte de las revistas académicas es muy exagerada, dice la presidenta del ERC


Las plataformas de acceso abierto no sustituyen a las publicaciones periódicas revisadas por pares, dice Maria Leptin


27 de enero de 2022

Jack Grove


Twitter: @jgro_the


Publicar en revistas altamente selectivas seguirá siendo importante para los científicos en el futuro porque los académicos siempre reconocerán el valor añadido de los investigadores en este tipo de publicaciones, ha dicho la nueva presidenta del Consejo Europeo de Investigación.


Desestimando las predicciones de que las editoriales académicas tradicionales no serán necesarias en un futuro próximo a medida que crezca la popularidad de los preprints y otras plataformas de acceso abierto, Maria Leptin dijo que no preveía un mundo sin revistas.


Incluso en las próximas décadas, los investigadores "seguirán enviando artículos para su revisión por pares de la misma manera que lo hacen ahora", dijo la profesora Leptin, que se hizo cargo de la financiación de la investigación de la Unión Europea en noviembre, después de haber sido directora de la Organización Europea de Biología Molecular (EMBO), que publica un número selecto de revistas, desde 2010.


Sobre el posible abandono de la revisión por pares basada en las revistas, que algunos han predicho, la profesora Leptin añadió: "Los comentarios posteriores a la publicación, las insignias y todo eso... no lo veo, porque el trabajo que los árbitros expertos realizan al revisar los artículos los mejora y ya es algo que utilizamos para juzgar los artículos".


Sus comentarios figuran en un nuevo libro,  Plan S for Shock, escrito por Robert-Jan Smits, que supervisó la creación de la iniciativa de acceso abierto Plan S mientras era alto funcionario de la Comisión Europea, y la periodista Rachael Pells, que relata el desarrollo de la iniciativa y su eventual lanzamiento en enero de 2021 (eventual launch in January 2021).


Los principales defensores del acceso abierto entrevistados para el libro insistieron en que las revistas se volverán -y quizás ya lo son- obsoletas. 


"No necesitamos revistas", afirmó Robert Kiley, antiguo responsable de acceso abierto del Wellcome Trust y actual responsable de estrategia de Plan S. Afirmó que un "repositorio completamente abierto en el que los investigadores puedan subir su investigación una vez que se sientan preparados para compartirla, como cualquier servidor de preprints" sería un modelo más eficiente, al que los revisores podrían añadir sus comentarios.

Pero el profesor Leptin señaló que una encuesta realizada a los miembros de la EMBO en 2019 sugería que había poco apetito por este tipo de modelo. Cuando se les preguntó cómo seleccionarían los artículos fuera de su campo, optaron por artículos "de alguien que conocen o de quien han oído hablar, un nombre muy reconocido en la ciencia - o buscan una revista muy selectiva", dijo el profesor Leptin, quien argumentó que los científicos "necesitan algún tipo de bandera que diga 'empieza aquí'" cuando emprenden la investigación.

Para Jasmin Lange, directora de Brill, editorial con sede en los Países Bajos que cuenta con casi 300 revistas, las revistas serán más importantes que nunca como fuentes de confianza dentro del "enorme desbordamiento de información" de Internet. 

"Lo que hace una revista es construir una comunidad", dijo, y añadió que los títulos eran una "plataforma de debate que nosotros, como editorial, hemos creado con los editores y en la que trabajamos continuamente para mejorar buscando nuevos autores y también nuevos lectores". La comunidad "no se separará drásticamente de los modelos de revista existentes, porque estamos hablando de comunidades muy especializadas que publican con revistas de sociedad, subcampos de subcampos", explicó.

Smits, que ahora es presidente de la Eindhoven University of Technology, dijo a Times Higher Education que creía que "el papel de la revista disminuiría".

"Es una cuestión generacional", dijo. "La edad media de los profesores en Europa es de unos 54 años, y seguirán existiendo otros 10 años, pero la próxima generación ya comparte sus descubrimientos de una manera muy diferente: no es en torno a las revistas tanto", dijo.

**************************

Death of academic journal greatly exaggerated, says ERC president

Open access platforms are no substitute for peer-reviewed periodicals, says Maria Leptin

January 27, 2022

Jack Grove

Twitter: @jgro_the

Publishing in highly selective journals will remain important to scientists in future because academics will always recognise the value added by scholars attached to such publications, the new president of the European Research Council has said.

Dismissing predictions that traditional scholarly publishers will not be needed in the near future as preprint and other open access platforms grow in popularity, Maria Leptin said she did not foresee a world without journals.

Even in decades to come, researchers “will still be submitting articles for peer review in the same way as they do now”, said Professor Leptin, who took over the European Union’s research funder in November, having been director of the European Molecular Biology Organization (EMBO), which publishes a select number of journals, since 2010. 

On the potential shift away from journal-based peer review that some have predicted, Professor Leptin added: “Post-publication commenting, badging and all that…I don’t see it, because the work that expert referees put into reviewing the papers makes them better and is already something that we use to judge papers on.”

Her comments are contained in a new book, Plan S for Shock, by Robert-Jan Smits, who oversaw the creation of the Plan S open access initiative while a senior official at the European Commission, and journalist Rachael Pells, which chronicles the initiative’s development and eventual launch in January 2021.

Leading open access advocates interviewed for the book insisted that journals will become – and perhaps already are – obsolete. 

“We don’t need journals,” said Robert Kiley, the former head of open access at the Wellcome Trust who is now Plan S’ head of strategy. He argued that a “completely open repository where researchers can upload their research once they feel ready to share it – just like any preprint server” would be a more efficient model, to which reviewers could add their comments.

But Professor Leptin noted that a survey of EMBO’s members in 2019 suggested that there was little appetite for this kind of model. Asked how they would select papers outside their field, they opted for articles “by someone they know or have heard of, a highly regarded name in science – or they look to a highly selective journal”, said Professor Leptin, who argued that scientists “need some kind of flag that says ‘start here’” when undertaking research.

For Jasmin Lange, director of Brill, the Netherlands-based publisher with almost 300 journals, journals will become more important than ever as trusted sources within the “huge information overflow” of the internet. 

“What a journal does is build community,” she said, adding that titles were a “platform for discussion which we as a publisher have put together with the editors and are continuously working on to improve by seeking out new authors and also new readers”. The community “will not split dramatically away from the existing models of journal, because we are talking about very specialised communities that publish with society journals – subfields of subfields”, she explained.

Mr Smits, who is now president of Eindhoven University of Technology, told Times Higher Education that he believed the “role of the journal would diminish”.

“It’s a generational thing,” he said. “The average age of professors in Europe is about 54, and they will be around for another 10 years, but the next generation already share their findings in a very different way – it is not around journals so much,” he said.

jack.grove@timeshighereducation.com



…………….


lunes, 31 de enero de 2022

Preprints: La evolución de su papel en la comunicación científica

Publicado en blog Universo abierto
https://universoabierto.org/2022/01/13/preprints-la-evolucion-de-su-papel-en-la-comunicacion-cientifica/



Preprints: La evolución de su papel en la comunicación científica

Preprints: Their Evolving Role in Science Communication. Puebla, Iratxe, Jessica Polka, and Oya Y Rieger. Preprints: Their Evolving Role In Science Communication. E-book, Ann Arbor, MI: Against the Grain (Media), LLC, 2022, https://doi.org/10.3998/mpub.12412508.Preprints: Their Evolving Role in Science Communication

Texto completo



El documento analiza la historia y el papel de los preprints en las ciencias biológicas dentro del cambiante panorama de la ciencia abierta. Se centra en el crecimiento exponencial de los preprints como modelo de publicación y en los retos asociados al mantenimiento de la infraestructura técnica y al establecimiento de modelos de negocio sostenibles. Un preprint es un manuscrito académico publicado por el autor o autores en un repositorio o plataforma para facilitar el intercambio abierto y amplio de los primeros trabajos sin ninguna limitación de acceso. En la actualidad existen más de 60 servidores de preprints que representan distintos ámbitos temáticos y geográficos, cada uno de los cuales evoluciona de forma diferente en función de los patrones de adopción y la ética disciplinaria. Esta sesión informativa ofrecerá una ayuda inestimable a quienes deseen comprender este modelo de publicación en rápida evolución.


viernes, 28 de enero de 2022

Cómo influye la retórica de la excelencia en la evaluación de la investigación

Publicado en blog SciELO en Perspectiva
https://blog.scielo.org/es/2022/01/28/como-influye-la-retorica-de-la-excelencia-en-la-evaluacion-de-la-investigacion/#.YfRitvtBxD8


Cómo influye la retórica de la excelencia en la evaluación de la investigación


Por Lilian Nassi-Calò

Instituciones académicas de todo el mundo anuncian sus programas de enseñanza e investigación asociados con posiciones destacadas en rankings universitarios de renombre, exalumnos distinguidos o simplemente nombres de universidades que han sido sinónimo de éxito, prestigio y reputación durante siglos. La mayoría de las veces, el término “excelencia” se utiliza para describir la investigación que desarrollan, las facultades que agrupan y los ilustres laureados que han pasado por allí.

Samuel Moore y coautores, en un artículo de 2017,1 abordaron la “retórica de la excelencia” en el mundo académico y sus efectos nocivos, que distan mucho de calificar la ciencia de calidad – todo lo contrario, pues favorecen la falta de reproducibilidad, el fraude y la distribución ineficaz de las ayudas a la investigación, para, en definitiva, proponer estrategias para combatirlo.

El término “excelencia” no tiene un significado particular cuando se usa para describir instituciones académicas, y no se sabe si es posible reconocer la “excelencia” antes de observarla. El hecho es que no se sabe si la búsqueda de la “excelencia” y su uso para premiar o castigar a determinadas instituciones, investigadores o programas de investigación ayuda o dificulta el logro de sus objetivos.

Los autores del estudio, respaldados por la extensa literatura revisada, demuestran que el uso del término “excelencia” para guiar la asignación de recursos de investigación en realidad previene, en lugar de promover, la actividad científica y de investigación, mientras que al mismo tiempo desalienta el riesgo intelectual necesario para avanzar en las investigaciones más significativas que implican cambios de paradigma y la “ciencia normal” que permita consolidar el conocimiento a raíz de tales avances.

El artículo consta de tres partes. El primero discute la “excelencia” como retórica, en la que los autores argumentan que el término ampliamente utilizado no es una cualidad por descubrir, sino un mecanismo de intercambio lingüístico a través del cual los investigadores comparan conjuntos heterogéneos de prácticas disciplinarias. En la segunda parte, los autores investigan el uso de la “excelencia” como herramienta de evaluación y llegan a la conclusión de que distorsiona la práctica de la investigación y no proporciona un medio confiable para distinguir entre proyectos, instituciones o personas en competencia. Finalmente, proponen narrativas alternativas para la evaluación de investigaciones, investigadores e instituciones, basadas en la solidez y la capacidad. Donde hay más heterogeneidad y mayor oportunidad para la diversidad de resultados y perspectivas, creen los autores, se fortalece la investigación.

¿Qué es la “excelencia”?

El término encuentra numerosas definiciones en la literatura para referirse a la calificación de instituciones, actividades académicas e investigadores. Sin embargo, “no nos dice nada sobre la importancia de la ciencia y lo dice todo sobre quién decide.”2 Esta afirmación está en concordancia con el trabajo de otros autores, quienes en los últimos años han recomendado reformas en el proceso de revisión por pares.

Es importante, según los autores, evaluar el proceso de revisión por pares, como se ha propuesto, a través de la formación de los revisores, mayor transparencia y otras acciones. Sin embargo, uno de los autores citados, Lamont, opina que “las soluciones actuales a este problema – que consisten principalmente en cambiar los grados de anonimato o el punto en el que se realiza la revisión (pre o post-publicación) – son insuficientes y constituyen ‘garantías imperfectas'”, y añade que, “como muchas cuestiones de la comunicación científica, el reto de la revisión por pares no es técnico, sino social.”3

Diferentes disciplinas tienen diferentes interpretaciones de las medidas de “excelencia”. Los biólogos, por ejemplo, consideran que el número de publicaciones, la posición del autor y el número de citas son fuertes indicadores de desempeño, mientras que los académicos de literatura inglesa enumeran un alto número de palabras por artículo, autoría única y publicación o artículo de revisión como indicadores de prestigio. en una revista literaria de renombre. Por lo tanto, parece claro que las culturas evaluativas están operando incluso sin un consenso interno más allá de algunas categorías amplias de desempeño.

Sin embargo, preguntan los autores, ¿podría la “excelencia” ser un “descriptor lingüístico sin ningún significado preestablecido cuyo valor radica en la capacidad de capturar juicios de valor interdisciplinarios y demostrar la utilidad política de la inversión pública en investigación e instituciones de investigación?”1

Ni siquiera es útil de esta manera, concluyen. Debido a que no tiene contenido, el término sirve en el sentido más amplio solo como una afirmación de éxito comparativo (reivindicado): que una cosa, persona, actividad o institución puede ser “mejor”, más importante que otra (generalmente sin igual en ningún otro aspecto), y por lo tanto más merecedores de reconocimiento. Sin embargo, este énfasis en el reconocimiento, según Kohn4 y otros autores, es perjudicial para las verdaderas cualidades que se comparan.

¿La “excelencia” es buena para la investigación?

Los autores, como hemos visto, han argumentado que “la ‘excelencia’ sería una señal retórica utilizada para reivindicar valor por parte de instituciones, investigadores, proyectos o disciplinas esencialmente heterogéneas, y no una medida objetiva e intrínseca del mérito.” Pero, ¿existen criterios formales que podrían usarse para identificar la “excelencia” en una sola instancia de investigación en sus propios términos o en una disciplina en particular? Los autores concluyen que encontrar una respuesta a esta pregunta, que está en el centro del debate del artículo, es más difícil de lo que uno podría imaginar.

Lo que está en juego es la evaluación del mérito y el impacto del trabajo científico, y esto implica numerosos desafíos. Entre ellos se encuentra la no previsibilidad del impacto científico al momento de la publicación, o incluso en base a citas recibidas, Factor de Impacto (FI) y otros índices; la falta de correlación entre la concesión de ayudas a la investigación y la productividad posterior; el hecho de que artículos inicialmente rechazados por una revista terminen siendo publicados por otras de similar prestigio y circulación sin mayores cambios, y otros. Estos ejemplos son mencionados por los autores para resaltar la notoria incapacidad de la academia para evaluar la “excelencia”.

Más preocupante, agregan, es la considerable evidencia de falsos positivos en el proceso de revisión por pares. Son artículos que, en una primera evaluación, cumplen con los requisitos de “excelencia” estipulados por una determinada revista, organismo financiador o institución, pero no pasan cuando se someten a métricas posteriores. Por ejemplo, los artículos que han sido aceptados para su publicación en una revista se vuelven a enviar con breves cambios. De estos, solo el 8% fueron detectados por los editores o revisores. De los que no fueron detectados, el 90% fueron rechazados por fallas metodológicas y/u otras razones por las mismas revistas que habían publicado previamente estos artículos. Estos artículos “nuevos” fueron rechazados por no ser lo suficientemente “excelentes” por revistas que previamente habían decidido que eran lo suficientemente “excelentes”.

De manera similar, un estudio5 mostró que los autores muy citados tenían menos capacidad para liderar importantes subvenciones de investigación en biomedicina que los autores menos citados pero socialmente bien conectados asociados con grupos de estudio y paneles de revisión de agencias de financiación. También en esta dirección, Fang, et al.6 concluyó que las propuestas de becas de investigación otorgadas por los National Institutes of Health (NIH) de los Estados Unidos definidas por revisión por pares mostraron una baja correlación con la productividad de los autores premiados, medida por las citas de publicaciones producidas bajo la subvención. Este resultado también evidenció un sesgo por parte de las agencias financiadoras en contra de proyectos altamente innovadores, que apenas son contemplados.

Con base en el creciente número de retractaciones publicadas, incluso en revistas de renombre, los casos de fraude y errores han ido en aumento en la literatura científica. La mayoría de las retractaciones se deben a fraude, publicación duplicada y plagio (67,4%), y solo una pequeña parte a errores (21,3%). Aún más preocupantes son los casos de falsos positivos, es decir, estudios que no se pueden replicar. Puede parecer contra-intuitivo, pero numerosos autores han postulado que el deseo de tener éxito y producir investigaciones de “excelencia” puede llevar a los investigadores a ir más allá de la línea ética y presentar investigaciones fraudulentas, que contienen errores sustanciales y, a menudo, irreproducibles.

Investigadores del Reino Unido y Australia incluso admitieron en entrevistas realizadas en 20167 que extrapolaban las afirmaciones de los impactos realizados en las propuestas de ayuda a la investigación, diciendo que se ha convertido en un “aspecto normal y necesario, aunque lamentable, de la cultura académica, considerando la búsqueda de recursos de investigación competitivos”, infiriendo que se trata de una práctica ampliamente difundida. “Aquí vemos cómo un requisito competitivo real o percibido de ‘excelencia’, combinado con una falta de confianza en la capacidad de los asesores para detectar afirmaciones falsas, conduce a una concepción de ‘excelencia’ que es puro juego: un concepto definido por quien se las arregla para salirse con la suya afirmando (en lugar de mostrar) ‘excelencia’”.

La publicación de artículos fraudulentos, o con algún tipo de error, sería perjudicial para la ciencia, pero no es la única consecuencia de cómo el foco en la “excelencia” perjudica a la investigación. Esta práctica acaba favoreciendo lo que se conoce como “efecto Mateo”,8 es decir, la distribución desigual de los recursos de investigación entre investigadores e instituciones bien dotadas de ayudas, en detrimento de las que no lo están. Este círculo vicioso crea distorsiones a lo largo del ciclo de investigación, generando sesgos en contra de proyectos de investigación innovadores, o autores de carrera temprana, desanimando la investigación y publicación de “ciencia normal”, incluidos los estudios de replicación, que son críticos para la viabilidad del proceso de investigación, sin ser convincente. suficiente para sugerir que sus autores son “excelentes”.

Las instrucciones a los autores de la mayoría de las revistas “excelentes” indican una predilección por los artículos originales y los resultados positivos. Esta categoría no se ajusta a los estudios de replicación, ya que no existen incentivos estructurales para realizar estudios que “simplemente” pueden revalidar (o no) los estudios existentes. Sin embargo, el hecho de que la literatura contenga estudios cuyos resultados no son reproducibles tiene consecuencias potencialmente peligrosas ya que puede conducir a conductas ineficaces o inseguras, o servir de base para futuros estudios cuyo fundamento no sea cierto.

Por último, pero no menos importante, el impacto negativo de la “excelencia” puede tener lugar de formas más sutiles que las que hemos visto hasta ahora. Al utilizar los estándares norteamericanos y europeos de “excelencia” en la capacidad de investigación como indicadores de desempeño, los países del sur global pueden experimentar el efecto paradójico de reducir esta capacidad al reducir el financiamiento para proyectos de investigación “normales” o alejándose de las prioridades nacionales.

Del mismo modo, puede haber una intensificación del prejuicio contra las mujeres y los grupos minoritarios en la concesión de becas de investigación, ya que estos grupos, al estar infrarrepresentados, tienden a perpetuarse de esta manera. Es mucho más fácil si su apariencia, estándares de trabajo y objetivos de investigación están en línea con la experiencia previa de sus árbitros. En ausencia de medidas correctivas sustanciales y conciencia, el enfoque en la “excelencia” continuará manteniendo, en lugar de superar, las barreras sociales para la participación en la investigación de los grupos actualmente subrepresentados.

Narrativas alternativas: trabajando por el cambio

La cuestión que surge, tras exponer numerosos ejemplos de cómo la “excelencia” es un criterio poco fiable para asignar parámetros de calidad y validez, es proponer formas alternativas de evaluar la actividad investigadora y su comunicación.

El mayor desafío, creen los autores, está en la infraestructura de financiación de la investigación. Los recursos públicos y privados para financiar proyectos de investigación e innovación son cada vez más escasos y la competencia implica prioridades y juicio de valores en decisiones difíciles de tomar.

Cabe mencionar el informe Publons de 2019 (publicado dos años después del artículo que analizamos en este post), Grant Review in Focus,9 con los resultados recopilados a partir de las respuestas de más de 11.000 investigadores, más de 800 financiadores en 95 países, algunos de los cuales fueron entrevistados para obtener información sobre cómo identificar mejor los proyectos con el mayor potencial de financiación, el tema de la publicación en este blog:10

Una diferencia clave entre la revisión por pares de publicaciones y la ayuda a la investigación radica en el hecho de que la primera, como ocurre después de realizada la investigación, influye en el rumbo que tomará la investigación en un área determinada al determinar qué se publicará y dónde, lo que en consecuencia influirá en la carrera del investigador. La evaluación de las ayudas a la investigación, en cambio, tiene una influencia más directa sobre un área determinada del conocimiento, ya que determina si la investigación será financiada o no y, en este último caso, puede que nunca se materialice. Los criterios utilizados por los revisores y el peso de cada uno son a menudo decisiones personales, o pueden ser proporcionados formalmente por los propios financiadores. Por eso, estos revisores tienen enormes desafíos en sus manos a la hora de asignar méritos a los proyectos, ya que terminan teniendo una gran influencia en la investigación de toda una zona o de un país.10

En muchos países líderes en investigación y desarrollo, como Estados Unidos, Canadá, Reino Unido y naciones con tradición investigadora en Europa, es común que las instituciones más reconocidas (y más ricas) concentren las ayudas públicas a la investigación (el mencionado “efecto Mateo”). Sin embargo, ha habido propuestas recientes para una redistribución más equitativa de los recursos entre grupos de investigación más pequeños y propuestas de estrategias alternativas después de darse cuenta de que una alternativa más productiva sería distribuir los recursos en función de la diversidad en lugar de una percepción de “excelencia”. o incluso la proposición de que distribuir los recursos disponibles entre todos los solicitantes sería más económico y productivo que presentar propuestas para su revisión y selección, o incluso decidir por sorteo quién recibirá las ayudas. En cualquier caso, en lugar de buscar la “excelencia”, los árbitros que evalúen propuestas de ayudas a la investigación deberían buscar algunos criterios básicos de calificación, como la “credibilidad” o la “validez”, que permitan pasar de la evaluación de resultados a la evaluación de procedimiento.

Los autores postulan que centrarse en la “validez”, la “solidez” y la “capacidad” en lugar de la retórica de la “excelencia” puede ofrecer alternativas concretas. Parte de la premisa de que “una investigación válida o sólida es una investigación de calidad” y “más investigación es mejor que poca” se enfoca en el rigor, la integridad y los estándares adecuados de descripción, evidencia y probidad, en lugar de vagas atribuciones de superioridad. Las cualidades mencionadas se pueden comparar y medir objetivamente. La colección Public Library of Science (PLoS) lanzada en 2001 con PLoS ONE y hoy con 12 revistas, tiene como principal política editorial, además del acceso abierto, la publicación de artículos técnicamente sólidos, sin considerar el grado de innovación o impacto, haciendo de PLoS la mayor colección de mega revistas de acceso abierto que existe.

El tema está lejos de ser agotado por el artículo, reconocen sus autores. De hecho, este artículo es parte de una colección reunida por Nature por el Prof. James Wilsdon titulado The future of Research Assessment,11 que desde 2017 incluye nuevas publicaciones sobre el tema, centrándose en la gestión de los recursos de financiación de la investigación del Reino Unido, Australia, Estados Unidos y países europeos.

La solución, postulan, “estaría en la redistribución de recursos a la academia y no en la concentración de estos en las instituciones que se autodenominan ‘de excelencia’, ya que esto no puede ser reconocido ni definido consensualmente. La redistribución aumentaría la capacidad y diversificaría el ámbito de actividad, centrándose en la práctica de la investigación, incluida su comunicación. Adoptando este enfoque, será posible reconocer una actividad académica sólida y válida, y con ello, construir culturas y comunidades en torno a este reconocimiento. Y eso sería exelente.”11

Notas

1. MOORE, S., et al. “Excellence R Us”: university research and the fetishisation of excellence. Palgrave Comm. [online]. 2017, vol. 3, 16105 [viewed 28 January 2022]. https://doi.org/10.1057/palcomms.2016.105. Available from: https://www.nature.com/articles/palcomms2016105#citeas

2. STILGOE, J. Against Excellence [online]. The Guardian. 2014 [viewed 28 January 2022]. Available from: https://www.theguardian.com/science/political-science/2014/dec/19/against-excellence.

3. LAMONT, M. How Professors Think: Inside the Curious World of Academic Judgment. Cambridge: Harvard University Press, 2009.

4. KOHN, A. Punished by Rewards: The Trouble with Gold Stars, Incentive Plans, A’s, Praise, and Other Bribes. Boston: Houghton Mifflin, 1999.

5. NICHOLSON, J.M. and IOANNIDIS, J.P.A. Research grants: Conform and be funded. Nature [online]. 2012, vol. 492, no. 7427, pp. 34–36 [viewed 28 January 2022]. https://doi.org/10.1038/492034a. Available from: https://www.nature.com/articles/492034a

6. FANG, F.C., BOWEN, A. and CASADEVALL, A. NIH peer review percentile scores are poorly predictive of grant productivity. eLife [online]. 2016, vol. 5, e13323 [viewed 28 January 2022]. https://doi.org/10.7554/eLife.13323. Available from: https://elifesciences.org/articles/13323

7. CHUBB, J. and WATERMEYER, R. Artifice or integrity in the marketization of research impact? Investigating the moral economy of (pathways to) impact statements within research funding proposals in the UK and Australia. Studies in Higher Education [online]. 2016, vol. 42, no. 12, pp. 1–13 [viewed 28 January 2022]. https://doi.org/10.1080/03075079.2016.1144182. Available from: https://www.tandfonline.com/doi/full/10.1080/03075079.2016.1144182

8. Porque a cualquiera que tuviere, le será dado, y tendrá más; y al que no tuviere, aun lo que tiene le será quitado. (Mateo, 25:29)

9. Grant Review in Focus [online]. Publons. 2019 [viewed 28 January 2022]. Available from: https://publons.com/community/gspr/grant-review

10. NASSI-CALÒ, L. Una mirada a la revisión por pares de propuestas de becas de investigación [online]. SciELO en Perspectiva, 2019 [viewed 27 January 2022]. Available from: https://blog.scielo.org/es/2019/12/04/una-mirada-a-la-revision-por-pares-de-propuestas-de-becas-de-investigacion/

11. The future of research assessment [online]. Nature Humanities & Social Science Communications. 2016 [viewed 28 January 2022]. Available from: https://www.nature.com/collections/kzffqpcdch

Referências

CHUBB, J. and WATERMEYER, R. Artifice or integrity in the marketization of research impact? Investigating the moral economy of (pathways to) impact statements within research funding proposals in the UK and Australia. Studies in Higher Education [online]. 2016, vol. 42, no. 12, pp. 1–13 [viewed 28 January 2022]. https://doi.org/10.1080/03075079.2016.1144182. Available from: https://www.tandfonline.com/doi/full/10.1080/03075079.2016.1144182

EYRE-WALKER, A. and STOLETZKI, N. The assessment of science: The relative merits of post-publication review, the impact factor, and the number of citations. PLoS Biology [online]. 2013, vol. 11, no. 10, e1001675 [viewed 28 January 2022]. https://doi.org/10.1371/journal.pbio.1001675. Available from: https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.1001675

FANG, F.C., BOWEN, A. and CASADEVALL, A. NIH peer review percentile scores are poorly predictive of grant productivity. eLife [online]. 2016, vol. 5, e13323 [viewed 28 January 2022]. https://doi.org/10.7554/eLife.13323. Available from: https://elifesciences.org/articles/13323

FANG, F.C., STEEN, R.G. and CASADEVALL, A. Misconduct accounts for the majority of retracted scientific publications. Proc Natl Acad Sci USA [online]. 2012, vol. 109, no. 42, pp. 17028–17033 [viewed 28 January 2022]. https://doi.org/10.1073/pnas.1212247109. Available from: https://www.pnas.org/content/109/42/17028

GORDON, R. and POULIN, B.J. Cost of the NSERC science grant peer review system exceeds the cost of giving every qualified researcher a baseline grant. Accountability in Research [online]. 2009, vol. 16, no. 1, pp. 13–40 [viewed 28 January 2022]. https://doi.org/10.1080/08989620802689821. Available from: https://www.tandfonline.com/doi/full/10.1080/08989620802689821

Grant Review in Focus [online]. Publons. 2019 [viewed 28 January 2022]. Available from: https://publons.com/community/gspr/grant-review

KOHN, A. Punished by Rewards: The Trouble with Gold Stars, Incentive Plans, A’s, Praise, and Other Bribes. Boston: Houghton Mifflin, 1999.

KUHN, T.S. The Structure of Scientific Revolutions, Fourth edition. Chicago: University of Chicago Press, 2012 (1962).

LAMONT, M. How Professors Think: Inside the Curious World of Academic Judgment. Cambridge: Harvard University Press, 2009.

MOORE, S., et al. “Excellence R Us”: university research and the fetishisation of excellence. Palgrave Comm. [online]. 2017, vol. 3, 16105 [viewed 28 January 2022]. https://doi.org/10.1057/palcomms.2016.105. Available from: https://www.nature.com/articles/palcomms2016105#citeas

NASSI-CALÒ, L. Una mirada a la revisión por pares de propuestas de becas de investigación [online]. SciELO en Perspectiva, 2019 [viewed 27 January 2022]. Available from: https://blog.scielo.org/es/2019/12/04/una-mirada-a-la-revision-por-pares-de-propuestas-de-becas-de-investigacion/

NICHOLSON, J.M. and IOANNIDIS, J.P.A. Research grants: Conform and be funded. Nature [online]. 2012, vol. 492, no. 7427, pp. 34–36 [viewed 28 January 2022]. https://doi.org/10.1038/492034a. Available from: https://www.nature.com/articles/492034a

PETERS, D.P. and CECI, S.J. Peer-review practices of psychological journals: The fate of published articles, submitted again. Behavioral and Brain Sciences [online]. 1982, vol. 5, no. 2, pp. 187–195 [viewed 28 January 2022]. https://doi.org/10.1017/s0140525x00011183. Available from: https://www.cambridge.org/core/journals/behavioral-and-brain-sciences/article/abs/peerreview-practices-of-psychological-journals-the-fate-of-published-articles-submitted-again/AFE650EB49A6B17992493DE5E49E4431

STILGOE, J. Against Excellence [online]. The Guardian. 2014 [viewed 28 January 2022]. Available from: https://www.theguardian.com/science/political-science/2014/dec/19/against-excellence.

The future of research assessment [online]. Nature Humanities & Social Science Communications. 2016 [viewed 28 January 2022]. Available from: https://www.nature.com/collections/kzffqpcdch

 

Sobre Lilian Nassi-Calò

Lilian Nassi-Calò estudió química en el Instituto de Química de la USP, tiene un doctorado en Bioquímica por la misma institución y un pos doctorado como becaria de la Fundación Alexander von Humboldt en Wuerzburg, Alemania. Después de concluir sus estudios, fue docente e investigadora en el IQ-USP. Trabajó en la industria privada como química industrial y actualmente es Coordinadora de Comunicación Científica en BIREME/OPS/OMS y colaboradora de SciELO.

 Traducido del original en portugués por Ernesto Spinak.

OpenAlex: ya está aquí el sucesor de Microsoft Academic Graph con 200 millones de documentos científicos

Publicado en Nature
https://www.nature.com/articles/d41586-022-00138-y 

Se lanza un índice abierto masivo de documentos académicos

OpenAlex cataloga cientos de millones de documentos científicos y establece conexiones entre ellos.

Dalmeet Singh Chawla

Se ha lanzado un ambicioso índice gratuito de más de 200 millones de documentos científicos que cataloga las fuentes de publicación, la información de los autores y los temas de investigación.

El índice, llamado OpenAlex en honor a la antigua Biblioteca de Alejandría (Egipto), también pretende trazar conexiones entre estos puntos de información para crear una base de datos completa e interconectada del sistema de investigación mundial, dicen sus fundadores. La base de datos, que se puso en marcha el 3 de enero, sustituye a Microsoft Academic Graph (MAG), una alternativa gratuita a las plataformas por suscripción como Scopus, Dimensions y Web of Science que dejó de funcionar a finales de 2021.

"Se trata de reunir muchas bases de datos de forma inteligente", afirma Euan Adie, fundador de Overton, una empresa con sede en Londres que rastrea la investigación citada en documentos políticos. Overton había obtenido sus datos de varias fuentes, como MAG, ORCID, Crossref y directamente de los editores, pero ahora ha pasado a utilizar únicamente OpenAlex, con la esperanza de facilitar el proceso.

Mejora de la cobertura

La decisión de Microsoft de cerrar MAG (announced last May), anunciada el pasado mes de mayo, preocupó a algunos académicos y otras personas que utilizaban sus datos para realizar estudios y crear herramientas de investigación.

En respuesta al cierre de MAG, la empresa de servicios académicos sin ánimo de lucro OurResearch, de Vancouver (Canadá), creó OpenAlex, utilizando parte de una subvención de 4,5 millones de dólares de la organización benéfica londinense Arcadia Fund. Actualmente, el índice es accesible a través de una interfaz de programación de aplicaciones, o API, que puede realizar búsquedas complejas. Está previsto que en febrero se lance una interfaz de motor de búsqueda (search-engine interface) más sencilla.

OpenAlex extrae sus datos de los registros existentes de MAG y de otras fuentes, como los identificadores de Wikidata, ORCID, Crossref y ROR, dice Jason Priem, cofundador de OurResearch.

La herramienta también está integrada con la base de datos Unpaywall, que contiene más de 30 millones de artículos de acceso abierto que Priem y la cofundadora de OurResearch, Heather Piwowar, lanzaron en 2017 (launched in 2017). "Ahora tenemos una cobertura de acceso abierto mucho mejor que la que tenía MAG", dice Priem. "No solo podemos decirte dónde viven las copias de lectura libre de cualquier artículo en particular, sino que también podemos decirte la licencia y la versión de ese artículo".

Fácil de configurar

OpenAlex también es gratuito, gracias al patrocinio de Amazon Web Services, y no requiere registro ni información de acceso, lo que hace que el proceso sea más fácil de usar, dice Priem. Esto difiere de MAG, para el que los usuarios tenían que iniciar sesión en Azure, el sistema de alojamiento en la nube de Microsoft, y pagar una pequeña cuota para descargar su conjunto de datos. Priem dice que su empresa podría considerar la posibilidad de lanzar un nivel premium de pago de OpenAlex para los usuarios que quieran un acceso súper rápido, pero siempre habrá una versión actualizada y gratuita.

Está "escrito de tal manera que es muy fácil de usar", dice Adie. Añade que sólo tardó unos 20 minutos en empezar a utilizar OpenAlex, frente a los tres o cuatro días que tardaba con MAG. "El inconveniente es que Microsoft tenía mucha capacidad técnica que podía aplicar a Microsoft Academic. Así que tendremos que ver cómo le va a OurResearch sin eso", dice Adie. 

Roar Bakken Stovner, que estudia los patrones de citación de los investigadores en la Universidad Metropolitana de Oslo, dice que le llevó unas dos horas empezar a trabajar con OpenAlex, frente a una semana con MAG. "Para alguien que tenga más conocimientos informáticos, MAG puede ser más fácil", dice. "Para los investigadores que quieran probar pequeños proyectos por su cuenta, OpenAlex será mucho más fácil para empezar".

Frode Opdahl, director ejecutivo de Keenious, una empresa de nueva creación con sede en Tromsø (Noruega), que escanea millones de documentos para sugerir referencias relevantes, dice que está satisfecho con la documentación publicada sobre OpenAlex. "Hace que sea mucho más fácil trabajar con él e implementarlo en nuestro producto", afirma.


****************************

  • 24 January 2022

Massive open index of scholarly papers launches

OpenAlex catalogues hundreds of millions of scientific documents and charts connections between them.


An ambitious free index of more than 200 million scientific documents that catalogues publication sources, author information and research topics, has been launched.

The index, called OpenAlex after the ancient Library of Alexandria in Egypt, also aims to chart connections between these data points to create a comprehensive, interlinked database of the global research system, say its founders. The database, which launched on 3 January, is a replacement for Microsoft Academic Graph (MAG), a free alternative to subscription-based platforms such as Scopus, Dimensions and Web of Science that was discontinued at the end of 2021.

“It’s just pulling lots of databases together in a clever way,” says Euan Adie, founder of Overton, a London-based firm that tracks the research cited in policy documents. Overton had been getting its data from various sources, including MAG, ORCID, Crossref and directly from publishers, but has now switched to using only OpenAlex, in the hope of making the process easier. 

Improved coverage

Microsoft’s move to close MAG, announced last May, worried some academics and others who used its data to conduct studies and build research tools.

In response to MAG’s closure, non-profit scholarly services firm OurResearch in Vancouver, Canada, created OpenAlex, using part of a US$4.5-million grant from London-based charity Arcadia Fund. The index is currently accessible through an application programming interface, or API, that can perform complex searches. A simpler search-engine interface is scheduled to launch in February.

OpenAlex draws its data from MAG’s existing records and from other sources including Wikidata identifiers, ORCID, Crossref and ROR, says Jason Priem, co-founder of OurResearch.

The tool is also integrated with the Unpaywall database, which contains more than 30 million open-access articles that Priem and OurResearch co-founder Heather Piwowar launched in 2017. “We now have much better coverage of open access than MAG ever did,” Priem says. “Not only can we tell you where the free-to-read copies of any particular article live, but we can also tell you the licence and the version of that article.”

Priem says that OpenAlex updates every fortnight by bringing in more data from its sources. The tool goes a step further towards openness than MAG did, because OpenAlex’s underlying code is freely available under a CC0 copyright licence for anyone to build on, says Priem. That means that if OpenAlex were to be discontinued, any researcher can pick up where Priem left off instead of having to rebuild the whole database from scratch.

Easy set-up

OpenAlex is also free to use, thanks to sponsorship from Amazon Web Services, and requires no registration or log-in information, making the process more user-friendly, says Priem. This differs from MAG, for which users had to log into Azure, Microsoft’s cloud-hosting system, and pay a small fee to download their data set. Priem says that his firm might consider rolling out a premium, pay-to-use tier of OpenAlex for users who want super-fast access, but a free up-to-date version will always be available.

It’s “written in such a way that’s very easy for somebody to pick up and use”, says Adie. He adds that it took him only about 20 minutes to get started on OpenAlex, compared with three to four days with MAG. “The downside is that Microsoft had a lot of technical capability that they could apply to Microsoft Academic. So we’ll have to see how OurResearch does without that,” Adie says. 

Roar Bakken Stovner, who studies researchers’ citations patterns at Oslo Metropolitan University, says that it took him around two hours to start working with OpenAlex, compared with around a week with MAG. “For somebody who is more computer savvy, MAG might be easier,” he says. “For researchers who want to try small projects on their own, OpenAlex will be way easier to start with.”

Frode Opdahl, chief executive of Keenious, a start-up firm based in Tromsø, Norway, which scans millions of papers to suggest relevant references, says he’s pleased with the documentation published about OpenAlex. “It makes it a lot easier to work with and implement into our product,” he says.

doi: https://doi.org/10.1038/d41586-022-00138-y


**********

Cuba: internacionalismo de vacunas

Publicado en La Jornada
https://www.jornada.com.mx/notas/2022/01/27/mundo/cuba-internacionalismo-de-vacunas-20220127/


Cuba: internacionalismo de vacunas

Periódico La Jornada
jueves 27 de enero de 2022 , p. 22

Cuba, no obstante el asfixiante bloqueo de Estados Unidos, está lista para enviar a precios solidarios decenas de millones de dosis de sus vacunas contra el covid-19, a países de bajos ingresos. Así se anunció el 25 de enero por altos directivos del Ministerio de Salud Pública y de la industria biotecnológica cubanos en una conferencia internacional organizada en La Habana por una delegación de la Internacional Progresista (IP) (https://bit.ly/34dwm5i), que viajó a la isla con el propósito de conocer pormenores sobre la creación y producción de sus tres vacunas y sus dos candidatos vacunales, así como promover su conocimiento y socialización en el sur global ante el avance arrollador del covid-19 y la obscena e injusta desigualdad que en la inmunización sufren los países pobres. Cuba, con sus inmunógenos Abdala, Soberana 02 y Soberana Plus, es el primer país de América Latina y el Caribe en lograr sus propias vacunas y con ellas, además, convertirse en el primer país del mundo con más dosis aplicadas por 100 habitantes, por delante de Chile, Emiratos Árabes Unidos y China. A la alta eficacia de los antígenos cubanos, su decisivo papel en la contención de la pandemia en la isla y a los productos y protocolos cubanos contra el covid-19 dedicaremos la segunda parte de esta entrega.

A la conferencia asistieron periodistas, fabricantes de vacunas, expertos en salud pública y representantes políticos de otros países, quienes recibieron una explicación y formularon preguntas a los representantes cubanos. Además de los precios solidarios para países de bajos ingresos, Cuba reiteró que también realizará transferencia de tecnología para producción local en aquellas naciones donde existan condiciones, como ha hecho ya en los casos de Vietnam e Irán. De igual forma, considerando que hay países donde no existe suficiente personal calificado ni infraestructura para realizar una vacunación masiva, La Habana ofrece enviar allí, o ampliar, sus brigadas médicas del contingente Harry Reeve ya existentes en esos lugares, para ofrecer formación y asesoría al personal que llevará a cabo las campañas de vacunación en los estados y territorios asociados a esta iniciativa. Esto es muy importante, pues tanto la organización humanitaria CARE como la Organización Mundial de la Salud (OMS) han alertado sobre las vacunas que no pueden llegar a los brazos de sus destinatarios en ciertos países pobres por no existir la organización y la capacidad necesarias para el despliegue y aplicación de los inmunógenos. En lo referente a la transferencia de tecnología, ya Cuba está en conversaciones con más de 15 países para producir vacunas en sus instalaciones. Las vacunas cubanas están basadas en plataformas de subunidades de proteínas ya probadas a lo largo de los años, lo que hace muy fácil su almacenamiento, pues no requieren de temperaturas de congelación.

En esta actividad, Cuba tiene una exitosa experiencia. Por ejemplo, en 2014 y 2015, médicos cubanos, a solicitud de la ONU y la OMS, trabajaron contra el ébola en Guinea, Sierra Leone y Liberia, donde redujeron la mortalidad de los pacientes de 50 a 20 por ciento e introdujeron un eficaz programa de educación preventiva para impedir la propagación de la enfermedad. En enero de 2015, Cuba había entrenado a alrededor de 13 mil personas para enfrentar el ébola en 28 países africanos, además de 68 mil en América Latina y 68 en el Caribe. Desde el comienzo de la pandemia unos 40 países y territorios en cinco continentes han recibido brigadas médicas cubanas para combatir el mal.

En su turno en la conferencia, David Adler, coordinador general de la IP y jefe de su delegación a Cuba, expresó: “Los anuncios realizados hoy por científicos cubanos deberían marcar un punto de inflexión en la historia de la pandemia del covid-19. Este paquete que salva vidas marca la pauta del internacionalismo de las vacunas y el camino hacia un nuevo orden internacional de la salud, en el cual la salud pública y la ciencia se sitúan por encima del beneficio privado y el nacionalismo mezquino”.

Hace unos días la IP, que agrupa a miles de activistas de izquierda en el mundo, denunció que el banco holandés ING, plegándose a la aplicación extraterritorial del bloqueo a Cuba por Washington, había bloqueado los fondos destinados al viaje de su delegación a la isla. Este es un buen ejemplo del contraste entre la tradicional política solidaria de Cuba con los pueblos y el criminal cerco estadunidense contra la isla que Washington, en un acto de cinismo sin límites, aduce que su objetivo es defender los derechos humanos y castigar a los líderes cubanos. Es evidente que no conforme con su intento de matar por hambre y enfermedades a la población de la isla, también busca impedir que sus vacunas protejan la salud de millones de personas y salvar infinidad de vidas en el planeta.

Twitter: @aguerraguerra

Una herramienta de Google permite detectar fácilmente la escritura generada por IA

Publicado en blog  Universo abierto https://universoabierto.org/2024/10/25/una-herramienta-de-google-permite-detectar-facilmente-la-escritur...