martes, 31 de mayo de 2022

La persistencia de las brechas de género en el sistema científico español: análisis de las áreas de ciencia y tecnología

Publicado en Blok de Bid

https://www.ub.edu/blokdebid/es/node/1204 

La persistencia de las brechas de género en el sistema científico español: análisis de las áreas de ciencia y tecnología

Anna Villarroya
Facultat d’Informació i Mitjans Audiovisuals
Universitat de Barcelona (UB)


Análisis de la presencia de mujeres en la producción científica española 2014-2018 (2022). Madrid: Fundación Española para la Ciencia y la Tecnología, FECYT. 26 p. Disponible en: <https://www.fecyt.es/es/publicacion/analisis-de-la-presencia-de-mujeres-en-la-produccion-cientifica-espanola-2014-2018>. [Consulta: 20/05/2022].


El estudio Análisis de la presencia de mujeres en la producción científica española 2014-2018 promovido por la Fundación Española para la Ciencia y la Tecnología (FECYT) aporta un nuevo prisma de análisis a los estudios existentes en torno a las desigualdades de género que se dan en el ámbito de la producción científica. En este sentido, el estudio analiza las características, el impacto y la visibilidad internacional de la producción científica en donde intervienen investigadores de instituciones españolas. Para ello, se han analizado un total de 304.165 documentos de investigadores e investigadoras de instituciones españolas publicados entre el año 2014 y 2018 en revistas indexadas en WOS (Web of Science), y se ha comparado la producción científica en la que participan mujeres respecto a aquella en la que no están presentes.

De los más de tres cientos mil documentos en solo un 47,8 % de los casos (145.276 documentos) se pudo identificar el sexo del investigador/a, siendo el 42,7 % de estos investigadores, mujeres (62.046). 

Por lo que se refiere a las características de estas publicaciones, la comparativa a lo largo del período 2014-2018 muestra cómo las mujeres participaron en menos del 50 % de los documentos analizados (el 47,7 %; 145.046 documentos) y que la tendencia, aun siendo leve, fue negativa a lo largo de los cinco años analizados, pasando del 48 % al 47,1 %. El análisis también pone de relieve la existencia de diferencias temáticas en cuanto al número de documentos publicados (productividad científica). Así, se observa un mayor número de documentos en el que participan mujeres en las áreas de ciencias medioambientales; ciencia de los materiales; bioquímica y biología molecular; ciencia de los alimentos; física-química; química; farmacología y farmacia y neurociencias. También se incluyen datos sobre liderazgo en las publicaciones científicas, mostrando un claro desequilibrio en los lugares más importantes del sistema científico: solo el 20,5 % de publicaciones fueron lideradas por mujeres a lo largo del período 2014-2018 frente al 50,4 % lideradas por hombres de instituciones españolas. Los datos también corroboran estudios previos en el sentido de que cuando el liderazgo recae en una mujer participan más mujeres en el equipo de investigación. Así, hay un 43 % de publicaciones lideradas por mujeres en el que intervienen mujeres de una institución española; este porcentaje baja al 35 %, cuando quien lidera es un hombre.

En cuanto al impacto de la producción científica, si bien es cierto que el porcentaje de documentos citados en el que intervienen mujeres (89,5 % en 2018) es ligeramente superior al porcentaje de la producción en el que no están presentes (87,6 %), el número de citas por documento es menor que en los que no participan, si bien esta diferencia se recorta a medida que avanza el quinquenio, igualándose en 2018. El estudio también muestra cómo el 12,3 % de las publicaciones en las que participan mujeres estaban entre las más citadas del mundo en el año 2018, dato muy similar al porcentaje de las publicaciones en el que no intervienen. En cuanto al impacto de las revistas, los datos muestran cómo, a lo largo de todo el período, el 55 % de los documentos en el que participaron mujeres se publican en las revistas más relevantes a nivel internacional, es decir, aquellas que se encuentran en el primer cuartil (25 %) de su categoría, dato ligeramente superior al porcentaje de la producción científica en el que no intervienen. No obstante, habría que añadir a este estudio inicial el análisis de las posiciones de autoría que ocupan las mujeres para tener una imagen más precisa de las brechas de género que se producen en la producción científica.

Respecto a la visibilidad internacional, se observa cómo la colaboración científica internacional es substancialmente inferior en los documentos en los que participan mujeres, aunque se observa una evolución positiva a lo largo del período analizado. Estos resultados coinciden con los de otros estudios y de otros sectores en los que se muestra la menor movilidad internacional de las mujeres, en parte motivada por las dificultades de conciliación personal, familiar y profesional (Faucha y Balasch, 2022). En este indicador se observan, también, diferencias relevantes por disciplinas temáticas, con una mayor colaboración internacional (con porcentajes superiores al 60 %) en física aplicada, ciencias de las plantas y biología celular. 

A modo de resumen, el estudio presentado ofrece, pues, una radiografía de los sesgos de género que todavía persisten en el sistema científico español. A partir de una recopilación de los principales indicadores de evaluación científica utilizados en el Estado español, el estudio muestra los desequilibrios hacia las mujeres que se producen en las áreas CTEM (ciencia, tecnología, ingeniería y matemáticas), especialmente en las ingenierías y la tecnología. El estudio abre la puerta a futuros desarrollos como pueden ser la inclusión de otras áreas, como las ciencias sociales y las humanidades, en las que los sesgos de género también están muy presentes; la consideración de otras variables que inciden en la trayectoria científica, además del sexo, y que interseccionan con esta como es la edad, así como la evolución que se ha producido desde 2018 hasta la actualidad. Hay que destacar, también, la llamada que se hace en las conclusiones del estudio sobre la necesidad de que editores de revistas y propietarios de las bases de datos de referencias internacionales añadan un campo obligatorio en donde se indique el sexo de los autores de una publicación de manera que se facilite el análisis de la producción científica desde una perspectiva de género.

El estudio reseñado abre la puerta a reflexionar en torno a las desigualdades que el actual sistema de evaluación de la actividad científica basado en la visibilidad de los estudios o los indicadores bibliométricos de las publicaciones científicas suponen para la carrera científica de las mujeres. De ahí la necesidad, cada vez más urgente, de explorar nuevas vías en la línea de lo estipulado en la Declaración de San Francisco sobre la evaluación de la investigación (DORA), del 2013, o el Manifiesto de Leiden, de 2015 que reclaman cambios en los sistemas de evaluación. Tal y como se recoge en el dossier del Observatori Social de la Fundació «la Caixa» (2022: Recerca…) dedicado a la investigación y la innovación, en los últimos años, organizaciones de diferentes campos académicos y regiones del mundo han empezado a reformar sus procesos de evaluación y probar nuevas prácticas, como por ejemplo el uso de formatos narrativos a los currículums, la valoración de acciones vinculadas al avance de la ciencia abierta, las referencias a la pluridisciplinariedad, la evaluación por pares y la atención a la relevancia y al impacto local y social de las aportaciones (Delgado-López-Cózar, E., Ràfols, I.; Abadal, 2021). Cabe esperar que estos nuevos sistemas de evaluación incorporen la perspectiva de género y pongan fin a las desigualdades que provocan los sistemas tradicionales de evaluación de la actividad científica. Todo ello requiere también, pues, de un cambio estructural en las instituciones académicas y centros de investigación que incluya una visión estratégica, con la creación de redes y alianzas y mejoras en la comunicación y la información, entre otros instrumentos (Ferguson y Mergaert, 2022).

Referencias

Delgado-López-Cózar, Emilio; Ràfols, Ismael; Abadal, Ernest (2021): «Letter: a call for a radical change in research evaluation in Spain». Profesional de la información, vol.  30, n.º 3. 6 p. 

Faucha, Mireia; Balasch, Marcel (2022). Dones i ciència a Barcelona: una anàlisi qualitativa dels factors que incideixen en la trajectòria de les investigadores. Barcelona: Ajuntament de Barcelona. 73 p.

Ferguson, Lucy; Mergaert, Lut (2022) Resistances to structural change in gender equality. 17 p. 

Recerca i innovació a Espanya i Portugal (2022). Palma: Observatori Social de la Fundació «la Caixa». 51 p. (Dossier; 11). 

¿Es el artículo científico un fósil que ya debe ser eliminado por lento y sesgado a los resultados positivos?

Publicado en The Guardian
https://www.theguardian.com/books/2022/apr/11/the-big-idea-should-we-get-rid-of-the-scientific-paper?s=08 


La gran idea: ¿debemos eliminar el artículo científico?

Como formato es lento, fomenta la exageración y es difícil de corregir. Una revisión radical de la publicación podría mejorar la ciencia

¿Cuándo fue la última vez que vio un artículo científico? Uno físico, quiero decir. Un viejo académico de mi anterior departamento universitario solía guardar todas sus revistas científicas en cajas de cereales recicladas. Al entrar en su despacho, te recibía una pared de gallos de Kellogg's, ocupando estante tras estante, en paquetes que contenían varios números de Journal of Experimental Psychology, Psychophysiology, Journal of Neuropsychology y similares. Era un espectáculo extraño, pero tenía su razón de ser: si no mantenías tus revistas organizadas, ¿cómo podías esperar encontrar el artículo concreto que buscabas?

La época de las cajas de cereales ya pasó: ahora tenemos Internet. Después de haber sido impresa en papel desde que se inauguró la primera revista científica en 1665, la inmensa mayoría de las investigaciones se presentan, revisan y leen en línea. Durante la pandemia, a menudo se devoraba en las redes sociales, una parte esencial del desarrollo de la historia de Covid-19. Los ejemplares impresos de las revistas se ven cada vez más como curiosidades, o no se ven en absoluto.

Pero aunque Internet ha transformado la forma en que leemos, el sistema general de publicación de la ciencia sigue siendo prácticamente el mismo. Seguimos teniendo artículos científicos; seguimos enviándolos a los revisores; seguimos teniendo editores que dan el visto bueno o no a la publicación de un artículo en su revista.

Este sistema conlleva grandes problemas. El principal es el sesgo de publicación: es más probable que los revisores y editores den una buena nota a un artículo científico y lo publiquen en su revista si presenta resultados positivos o interesantes. Por ello, los científicos hacen todo lo posible por dar bombo a sus estudios, apoyarse en sus análisis para obtener "mejores" resultados y, a veces, incluso cometer fraudes para impresionar a esos importantes guardianes. Esto distorsiona drásticamente nuestra visión de lo que realmente ocurrió.

Hay algunas soluciones posibles que cambian el funcionamiento de las revistas. Tal vez la decisión de publicar podría basarse únicamente en la metodología de un estudio, en lugar de en sus resultados (esto ya está ocurriendo en cierta medida en algunas revistas). Tal vez los científicos podrían publicar todas sus investigaciones por defecto, y las revistas se encargarían de comisariar, en lugar de decidir, qué resultados salen al mundo. Pero tal vez podríamos ir un paso más allá y deshacernos por completo de los artículos científicos.

Los científicos están obsesionados con los artículos, en concreto, con tener más artículos publicados bajo su nombre, ampliando la crucial sección de "publicaciones" de su CV. Así que puede parecer una barbaridad sugerir que podríamos prescindir de ellos. Pero esa obsesión es el problema. Paradójicamente, el estatus sagrado de un artículo publicado y revisado por pares hace más difícil que el contenido de esos artículos sea correcto.

Pensemos en la desordenada realidad de la investigación científica. Los estudios casi siempre arrojan cifras extrañas e inesperadas que complican cualquier interpretación sencilla. Pero un artículo tradicional -con el recuento de palabras y todo- te obliga a simplificar las cosas. Si lo que se persigue es el gran objetivo de un artículo publicado, la tentación de limar algunos de los bordes irregulares de los resultados está siempre presente, para ayudar a "contar una historia mejor". Muchos científicos admiten, en las encuestas, que hacen precisamente eso: convertir sus resultados en artículos inequívocos y de aspecto atractivo, pero distorsionando la ciencia en el camino.

Y considere las correcciones. Sabemos que los artículos científicos suelen contener errores. Un algoritmo que analizó miles de artículos de psicología descubrió que, en el peor de los casos, más del 50% tenía un error estadístico específico, y más del 15% tenía un error lo suficientemente grave como para anular los resultados. En el caso de los artículos, la corrección de este tipo de errores es una tarea ardua: hay que escribir a la revista, llamar la atención del ocupado editor y conseguir que publique un nuevo y breve artículo que detalle formalmente la corrección. Muchos científicos que solicitan correcciones se encuentran con que las revistas les dan largas o las ignoran. Imagínese el número de errores que pueblan la literatura científica y que no han sido corregidos porque hacerlo es demasiado complicado. 

Por último, consideremos los datos. Antes, compartir los datos brutos que formaban la base de un artículo con los lectores de ese artículo era más o menos imposible. Ahora puede hacerse con unos pocos clics, subiendo los datos a un repositorio abierto. Y sin embargo, actuamos como si viviéramos en el mundo de antaño: los artículos casi nunca llevan los datos adjuntos, lo que impide a los revisores y lectores ver la imagen completa.

La solución a todos estos problemas es la misma que la respuesta a "¿Cómo organizo mis revistas si no uso cajas de cereales?" Usar Internet. Podemos convertir los diarios en minisitios web (a veces llamados "cuadernos") que informan abiertamente de los resultados de un determinado estudio. De este modo, no sólo se puede ver todo el proceso, desde los datos hasta el análisis y la redacción (el conjunto de datos se incluiría en el sitio web junto con todo el código estadístico utilizado para analizarlo, y cualquiera podría reproducir el análisis completo y comprobar que obtiene las mismas cifras), sino que cualquier corrección podría realizarse de forma rápida y eficaz, con la fecha y la hora de todas las actualizaciones registradas públicamente.

Esto supondría una gran mejora con respecto a la situación actual, en la que el análisis y la redacción de los artículos se realizan en privado y los científicos deciden a su antojo si hacen públicos sus resultados. Por supuesto, arrojar luz sobre todo el proceso podría revelar ambigüedades o contradicciones difíciles de explicar en los resultados, pero así es la ciencia en realidad. También hay otras ventajas potenciales de esta forma de publicar la ciencia con alta tecnología: por ejemplo, si se realizara un estudio a largo plazo sobre el clima o el desarrollo infantil, sería muy fácil añadir nuevos datos a medida que fueran apareciendo. 

Hay barreras para grandes cambios como éste. Algunos tienen que ver con las habilidades: es fácil escribir un documento de Word con tus resultados y enviarlo a una revista, como hacemos ahora; es más difícil hacer un sitio web de cuaderno que entrelace los datos, el código y la interpretación. Y lo que es más importante, ¿cómo funcionaría la revisión por pares en este escenario? Se ha sugerido que los científicos podrían contratar a "equipos rojos" -personas cuyo trabajo es detectar agujeros en sus hallazgos- para que indaguen en los sitios de sus cuadernos y los prueben hasta destruirlos. Pero quién pagaría, y cómo funcionaría exactamente el sistema, es objeto de debate.

Hemos avanzado de forma asombrosa en muchas áreas de la ciencia y, sin embargo, seguimos atascados en el viejo y defectuoso modelo de publicación de la investigación. De hecho, incluso el nombre de "paper" nos remite a una época pasada. Algunos campos de la ciencia ya se están moviendo en la dirección que he descrito aquí, utilizando cuadernos en línea en lugar de revistas, documentos vivos en lugar de fósiles vivos. Es hora de que el resto de la ciencia siga su ejemplo.

************************

The big idea: should we get rid of the scientific paper?

As a format it’s slow, encourages hype, and is difficult to correct. A radical overhaul of publishing could make science better

When was the last time you saw a scientific paper? A physical one, I mean. An older academic in my previous university department used to keep all his scientific journals in recycled cornflakes boxes. On entering his office, you’d be greeted by a wall of Kellogg’s roosters, occupying shelf upon shelf, on packets containing various issues of Journal of Experimental Psychology, Psychophysiology, Journal of Neuropsychology, and the like. It was an odd sight, but there was method to it: if you didn’t keep your journals organised, how could you be expected to find the particular paper you were looking for?

The time for cornflakes boxes has passed: now we have the internet. Having been printed on paper since the very first scientific journal was inaugurated in 1665, the overwhelming majority of research is now submitted, reviewed and read online. During the pandemic, it was often devoured on social media, an essential part of the unfolding story of Covid-19. Hard copies of journals are increasingly viewed as curiosities – or not viewed at all. 

But although the internet has transformed the way we read it, the overall system for how we publish science remains largely unchanged. We still have scientific papers; we still send them off to peer reviewers; we still have editors who give the ultimate thumbs up or down as to whether a paper is published in their journal.

This system comes with big problems. Chief among them is the issue of publication bias: reviewers and editors are more likely to give a scientific paper a good write-up and publish it in their journal if it reports positive or exciting results. So scientists go to great lengths to hype up their studies, lean on their analyses so they produce “better” results, and sometimes even commit fraud in order to impress those all-important gatekeepers. This drastically distorts our view of what really went on.

There are some possible fixes that change the way journals work. Maybe the decision to publish could be made based only on the methodology of a study, rather than on its results (this is already happening to a modest extent in a few journals). Maybe scientists could just publish all their research by default, and journals would curate, rather than decide, which results get out into the world. But maybe we could go a step further, and get rid of scientific papers altogether. 

Scientists are obsessed with papers – specifically, with having more papers published under their name, extending the crucial “publications” section of their CV. So it might sound outrageous to suggest we could do without them. But that obsession is the problem. Paradoxically, the sacred status of a published, peer-reviewed paper makes it harder to get the contents of those papers right.

Consider the messy reality of scientific research. Studies almost always throw up weird, unexpected numbers that complicate any simple interpretation. But a traditional paper – word count and all – pretty well forces you to dumb things down. If what you’re working towards is a big, milestone goal of a published paper, the temptation is ever-present to file away a few of the jagged edges of your results, to help “tell a better story”. Many scientists admit, in surveys, to doing just that – making their results into unambiguous, attractive-looking papers, but distorting the science along the way.


And consider corrections. We know that scientific papers regularly contain errors. One algorithm that ran through thousands of psychology papers found that, at worst, more than 50% had one specific statistical error, and more than 15% had an error serious enough to overturn the results. With papers, correcting this kind of mistake is a slog: you have to write in to the journal, get the attention of the busy editor, and get them to issue a new, short paper that formally details the correction. Many scientists who request corrections find themselves stonewalled or otherwise ignored by journals. Imagine the number of errors that litter the scientific literature that haven’t been corrected because to do so is just too much hassle

Finally, consider data. Back in the day, sharing the raw data that formed the basis of a paper with that paper’s readers was more or less impossible. Now it can be done in a few clicks, by uploading the data to an open repository. And yet, we act as if we live in the world of yesteryear: papers still hardly ever have the data attached, preventing reviewers and readers from seeing the full picture.

The solution to all these problems is the same as the answer to “How do I organise my journals if I don’t use cornflakes boxes?” Use the internet. We can change papers into mini-websites (sometimes called “notebooks”) that openly report the results of a given study. Not only does this give everyone a view of the full process from data to analysis to write-up – the dataset would be appended to the website along with all the statistical code used to analyse it, and anyone could reproduce the full analysis and check they get the same numbers – but any corrections could be made swiftly and efficiently, with the date and time of all updates publicly logged.

This would be a major improvement on the status quo, where the analysis and writing of papers goes on entirely in private, with scientists then choosing on a whim whether to make their results public. Sure, throwing sunlight on the whole process might reveal ambiguities or hard-to-explain contradictions in the results – but that’s how science really is. There are also other potential benefits of this hi-tech way of publishing science: for example, if you were running a long-term study on the climate or on child development, it would be a breeze to add in new data as it appears. 

There are barriers to big changes like this. Some are to do with skills: it’s easy to write a Word document with your results and send it in to a journal, as we do now; it’s harder to make a notebook website that weaves together the data, code and interpretation. More importantly, how would peer review operate in this scenario? It’s been suggested that scientists could hire “red teams” – people whose job is to pick holes in your findings – to dig into their notebook sites and test them to destruction. But who would pay, and exactly how the system would work, is up for debate.

We’ve made astonishing progress in so many areas of science, and yet we’re still stuck with the old, flawed model of publishing research. Indeed, even the name “paper” harkens back to a bygone age. Some fields of science are already moving in the direction I’ve described here, using online notebooks instead of journals – living documents instead of living fossils. It’s time for the rest of science to follow suit.


REINO UNIDO vs Springer: rechaza acuerdo "transformativo"... que incluye APC de € 9,500 por artículo

Publicado en THE Times Higher Education

https://www.timeshighereducation.com/news/uk-rejects-inexplicable-price-hike-nature-journals?fbclid=IwAR2qMVAhbgWca8jy2wGwHtWgmuW5Y23JjwddiYjuL4xSmaS8de3QaBFnfnw 


El Reino Unido rechaza la "inexplicable" subida de precios de las revistas de Nature


Las universidades buscan un importante ahorro tras la victoria de Elsevier


24 de mayo de 2022

Jack Grove

Twitter: @jgro_the


Las universidades británicas se enfrentan a un nuevo impasse con una de las principales editoriales académicas tras rechazar una propuesta que les habría hecho pagar casi un millón de libras más al año por leer y publicar en las revistas de Nature.


En un momento en el que el sector británico desea realizar "ahorros significativos", ya que este año expiran los acuerdos con varias editoriales importantes, el grupo de contenidos que actúa en nombre de Universities UK (UUK) ha rechazado una propuesta de lectura y publicación para 35 revistas de la marca Nature "debido al coste", según un correo electrónico interno visto por Times Higher Education.


La propuesta obligaría a los suscriptores a pagar a Springer Nature 940.000 libras adicionales a las tarifas de suscripción de 2022 -un aumento del 19%-, mientras que seguiría requiriendo un acuerdo separado para Nature Review y los títulos de la marca Palgrave.


La decisión del grupo de estrategia de negociación de contenidos de la UUK de rechazar "unánimemente" la propuesta de la editorial se produce mientras continúan las negociaciones con otras dos grandes editoriales, Wiley y Taylor & Francis, y se prevé que los tres acuerdos existentes se renegocien a finales de diciembre.


La estrategia sigue a las largas conversaciones con Elsevier, la mayor editorial académica del mundo, que finalmente concluyeron en un acuerdo de acceso abierto de tres años anunciado en marzo que permitirá tanto la publicación de acceso abierto ilimitado como el acceso a revistas de pago por lo que fue descrito por Jisc, que dirigió las negociaciones en nombre de UUK, como una "reducción significativa del gasto institucional actual".


Phil Sykes, director de bibliotecas, museos y galerías de la Universidad de Liverpool, que ha participado en anteriores rondas de negociación a nivel nacional con editoriales internacionales, se mostró sorprendido de que Springer Nature "se enfrente a las universidades de esta manera".


"Es inexplicable", dijo el Sr. Sykes, ex presidente de Research Libraries UK, quien reflexionó que Springer Nature "debe haber visto el resultado de las negociaciones con Elsevier". "¿En qué universo posible las universidades que han logrado una reducción de precios del 15%, y un acuerdo completo de lectura y publicación, con la mayor editorial científica del mundo, de repente deciden que se conforman con un aumento del 19% de Springer?", dijo el Sr. Sykes. 


Dados los recientes esfuerzos de las universidades por mitigar la pérdida de acceso a las revistas de las grandes editoriales, principalmente mediante préstamos interuniversitarios, la "amenaza subyacente que permitía a las editoriales explotar a las universidades simplemente ha desaparecido", añadió.


"Springer tiene que despertar a las nuevas realidades para evitar no sólo un resultado desastroso para ellos en el Reino Unido, sino un precedente que será profundamente perjudicial para su negocio global", dijo Sykes.


El actual impasse se produce tras la decisión de Jisc de excluir el título estrella Nature, así como las revistas de investigación Nature y los títulos de Palgrave, de su lista de "revistas transformadoras" que cumplen con los requisitos de la UK Research and Innovation (UKRI), lo que de hecho impide a los investigadores radicados en el Reino Unido utilizar los fondos del consejo de investigación para pagar los gastos de procesamiento de sus artículos. En el caso de Nature, se trata de 8.290 libras (9.500 euros) por artículo.


Sin embargo, Springer Nature ha insistido en que existe una "vía de cumplimiento" limitada en el tiempo en la que los investigadores pueden depositar un manuscrito o una versión de registro aceptada por el autor que permita utilizar los fondos del UKRI.


Esta solución estará vigente hasta finales de diciembre, cuando se espera que se haya acordado un nuevo acuerdo con Springer Nature.


La editorial dijo que las conversaciones con Jisc "siguen siendo cooperativas" y que ambas partes estaban "trabajando juntas para llegar a un acuerdo".


Jisc dijo que estaba buscando un acuerdo para los títulos de Nature y Palgrave "que cumpla con los requisitos del sector". "Aunque la última propuesta fue rechazada, seguimos trabajando con Springer Nature para lograr un resultado aceptable en las negociaciones", dijo.


………………….


UK rejects ‘inexplicable’ price hike for Nature journals

Universities seeking significant savings after Elsevier victory

May 24, 2022

Jack Grove

Twitter: @jgro_the


UK universities face another stand-off with a major academic publisher after rejecting a proposal that would have seen them pay nearly £1 million extra annually to read and publish in Nature journals.

With the UK sector keen to make “significant savings” as several big publisher deals expire this year, the content group acting on behalf of Universities UK (UUK) has rejected a read-and-publish proposal for 35 Nature-branded journals “due to cost”, according to an internal email seen by Times Higher Education.

The proposal would require subscribers to pay Springer Nature an extra £940,000 on top of 2022 subscription fees – a 19 per cent increase – while still requiring a separate agreement for Nature Review and Palgrave-branded titles. 

The decision by UUK’s content negotiation strategy group to “unanimously” reject the publisher’s proposal comes as negotiations with two other large publishers – Wiley and Taylor & Francis – continue, with all three existing deals set to be renegotiated by late December.

The strategy follows lengthy talks with Elsevier, the world’s biggest academic publisher, which eventually concluded in a three-year open access deal announced in March that will allow both unlimited open access publishing and access to paywalled journals for what was described by Jisc, which led negotiations on behalf of UUK, as a “significant reduction on current institutional spend”.

Phil Sykes, director of libraries, museums and galleries at the University of Liverpool, who has been involved in previous national-level negotiating rounds with international publishers, said he was surprised to see Springer Nature “picking a fight with universities in this way”.

“It is inexplicable,” said Mr Sykes, a former chair of Research Libraries UK, who reflected that Springer Nature “must have seen the outcome of the Elsevier negotiations”. “In what possible universe would universities who have achieved a 15 per cent price decrease, and a full read-and-publish deal, with the biggest science publisher in the world, suddenly decide that they are content with a 19 per cent increase from Springer?” said Mr Sykes. 

Given recent efforts by universities to mitigate the loss of access to journals run by big publishers, chiefly via inter-university loans, the “underlying threat that used to enable publishers to exploit universities has simply gone”, he added.

“Springer need to wake up to the new realities to avoid not only a disastrous outcome for them in the UK, but a precedent that will be deeply damaging to their global business,” said Mr Sykes.

The current impasse follows the decision by Jisc to exclude the marquee title Nature, as well as Nature research journals and Palgrave titles, from its list of “transformative journals” compliant with UK Research and Innovation (UKRI) requirements, in effect barring UK-based researchers from using research council funds to pay for their article processing charges. In the case of Nature, that is £8,290 (€9,500) per paper.

However, Springer Nature has insisted that a time-limited “compliant route” is available in which researchers can deposit an author-accepted manuscript or version of record that would allow UKRI funds to be used.

This solution will run until the end of December, when it is hoped that a new Springer Nature deal may have been agreed.

The publisher said that discussions with Jisc “continue to be cooperative” and that both sides were “working together towards an agreement”.

Jisc said it was seeking a deal for the Nature and Palgrave titles “that meets the sector’s requirements”. “Whilst the latest proposal was rejected, we continue to work with Springer Nature to achieve an acceptable outcome to the negotiations,” it said.



jueves, 26 de mayo de 2022

La ciencia abierta es buena para la investigación, pero mala para la seguridad

Publicado en Wired
https://www.wired.com/story/making-science-more-open-good-research-bad-security/ 

Hacer la ciencia más abierta es bueno para la investigación, pero malo para la seguridad

El movimiento de la ciencia abierta aboga por hacer que el conocimiento científico sea rápidamente accesible para todos. Pero un nuevo artículo advierte que la rapidez puede tener un coste.

DURANTE DÉCADAS, el conocimiento científico ha estado firmemente encerrado tras la cerradura y la llave de los muros de pago de las revistas, que resultan tremendamente caros. Sin embargo, en los últimos años se ha producido un cambio de tendencia contra las rígidas y anticuadas barreras de la publicación académica tradicional. El movimiento de la ciencia abierta ha cobrado impulso para hacer que la ciencia sea accesible y transparente para todos.

Cada vez son más las revistas que publican investigaciones que pueden ser leídas por cualquiera, y los científicos comparten sus datos entre sí. El movimiento de la ciencia abierta también ha supuesto el auge de los servidores de  preprint: repositorios en los que los científicos pueden publicar sus manuscritos antes de que pasen por una rigurosa revisión por parte de otros investigadores y se publiquen en las revistas. Los científicos ya no tienen que pasar por el proceso de revisión por pares antes de que su investigación esté ampliamente disponible: Pueden enviar un artículo a bioRxiv y publicarlo en línea al día siguiente. 

Sin embargo, un nuevo artículo publicado en la revista PLoS Biology sostiene que, aunque el movimiento de la ciencia abierta es en general positivo, no está exento de riesgos.  

Aunque la velocidad de la publicación en acceso abierto significa que la investigación importante se publica más rápidamente, también significa que los controles necesarios para garantizar que la ciencia considerada como arriesgada no se está lanzando en línea son menos meticulosos. En particular, el campo de la biología sintética -que implica la ingeniería de nuevos organismos o la reingeniería de organismos existentes para que tengan nuevas habilidades- se enfrenta a lo que se denomina un dilema de doble uso: aunque la investigación que se publica rápidamente puede utilizarse para el bien de la sociedad, también podría ser cooptada por actores malintencionados para llevar a cabo la guerra biológica o el bioterrorismo. También podría aumentar la posibilidad de una liberación accidental de un patógeno peligroso si, por ejemplo, alguien sin experiencia pudiera hacerse fácilmente con una guía de cómo diseñar un virus. "Existe el riesgo de que se compartan cosas malas", afirma James Smith, coautor del artículo e investigador de la Universidad de Oxford. "Y en realidad no hay procesos en marcha en este momento para abordarlo".

Aunque el riesgo de la investigación de doble uso es un problema antiguo, "la ciencia abierta plantea retos nuevos y diferentes", afirma Gigi Gronvall, experta en bioseguridad e investigadora principal del Centro Johns Hopkins para la Seguridad Sanitaria. "Estos riesgos siempre han estado ahí, pero con los avances tecnológicos se magnifican".

Para ser claros, esto todavía no ha ocurrido. Ningún virus peligroso u otro patógeno se ha replicado o creado a partir de las instrucciones de un preprint. Pero dado que las consecuencias potenciales de que esto ocurra son tan catastróficas -como el desencadenamiento de otra pandemia-, los autores del artículo sostienen que no merece la pena asumir ni siquiera un pequeño aumento del riesgo. Y el momento de reflexionar profundamente sobre estos riesgos es ahora. 

Durante la pandemia, la necesidad de los servidores de  preprint se puso de manifiesto: las investigaciones cruciales pudieron difundirse mucho más rápidamente que la tradicionalmente lenta vía de las revistas. Pero eso también significa que "ahora hay más gente que nunca que sabe cómo sintetizar virus en los laboratorios", afirma Jonas Sandbrink, investigador de bioseguridad del Instituto del Futuro de la Humanidad de la Universidad de Oxford y otro coautor del artículo. 

Por supuesto, el hecho de que la investigación se publique en una revista en lugar de en un servidor de  preprints no significa que esté intrínsecamente libre de riesgos. Pero sí significa que es más probable que cualquier peligro evidente sea detectado en el proceso de revisión. "La diferencia clave, en realidad, entre las revistas y el servidor de  preprint es el nivel de profundidad de la revisión, y el proceso de publicación de la revista puede ser más propenso a identificar los riesgos", dice Smith. 

Los riesgos de la publicación abierta no se limitan a la investigación biológica. En el campo de la IA, un movimiento similar hacia el intercambio abierto de código y datos significa que hay un potencial de mal uso. En noviembre de 2019, OpenAI anunció que no publicaría abiertamente en su totalidad su nuevo modelo de lenguaje GPT-2, que puede generar texto y responder preguntas de forma independiente, por temor a "aplicaciones maliciosas de la tecnología", es decir, su potencial para difundir noticias falsas y desinformación. En su lugar, OpenAI publicaría una versión mucho más reducida del modelo para que los investigadores pudieran probarlo, una decisión que suscitó críticas en su momento. (Su sucesor, el GPT-3, publicado en 2020, resultó ser capaz de escribir pornografía infantil. 

Dos de los mayores servidores de preimpresión, medRxiv, fundado en 2019 para publicar investigaciones médicas, y bioRxiv, fundado en 2013 para investigaciones biológicas, declaran públicamente en sus sitios web que comprueban que no se publique en ellos "investigación de doble uso preocupante". "Todos los manuscritos se examinan en el momento de su presentación para comprobar si hay plagio, contenido no científico, tipos de artículos inapropiados y material que pueda poner en peligro la salud de pacientes individuales o del público", se lee en una declaración de medRxiv. "Esto último puede incluir, pero no se limita a, estudios que describan investigaciones de doble uso y trabajos que desafíen o puedan comprometer las medidas de salud pública aceptadas y los consejos relativos a la transmisión de enfermedades infecciosas, la inmunización y la terapia".

Desde el inicio de bioRxiv, los riesgos de bioseguridad fueron siempre una preocupación, dice Richard Sever, uno de los cofundadores de bioRxiv y director adjunto de Cold Spring Harbor Laboratory Press. (Sever fue uno de los revisores del artículo de Smith y Sandbrink). Bromea diciendo que en los primeros días de arXiv, un servidor de preprints para las ciencias físicas lanzado en 1991, había preocupaciones por las armas nucleares; con bioRxiv hoy las preocupaciones son por las armas biológicas.

Sever calcula que bioRxiv y medRxiv reciben unos 200 envíos al día, y cada uno de ellos es examinado por más de un par de ojos. Reciben "un montón de basura" que se descarta de inmediato, pero el resto de las propuestas pasan a un grupo para ser examinadas por científicos en activo. Si alguien en ese proceso de selección inicial señala un artículo que puede plantear problemas, se pasa a la cadena para que lo considere el equipo de gestión antes de que se tome una decisión final. "Siempre intentamos pecar de precavidos", dice Sever. Hasta ahora no se ha publicado nada que haya resultado peligroso, considera. 

Dos de los mayores servidores de preprints, medRxiv, fundado en 2019 para publicar investigaciones médicas, y bioRxiv, fundado en 2013 para investigaciones biológicas, declaran públicamente en sus sitios web que comprueban que no se publique en ellos "investigación de doble uso preocupante". "Todos los manuscritos se examinan en el momento de su presentación para comprobar si hay plagio, contenido no científico, tipos de artículos inapropiados y material que pueda poner en peligro la salud de pacientes individuales o del público", se lee en una declaración de medRxiv. "Esto último puede incluir, pero no se limita a, estudios que describan investigaciones de doble uso y trabajos que desafíen o puedan comprometer las medidas de salud pública aceptadas y los consejos relativos a la transmisión de enfermedades infecciosas, la inmunización y la terapia".

Desde el inicio de bioRxiv, los riesgos de bioseguridad fueron siempre una preocupación, dice Richard Sever, uno de los cofundadores de bioRxiv y director adjunto de Cold Spring Harbor Laboratory Press. (Sever fue uno de los revisores del artículo de Smith y Sandbrink). Bromea diciendo que en los primeros días de arXiv, un servidor de preimpresión para las ciencias físicas lanzado en 1991, había preocupaciones por las armas nucleares; con bioRxiv hoy las preocupaciones son por las armas biológicas.

Sever calcula que bioRxiv y medRxiv reciben unos 200 envíos al día, y cada uno de ellos es examinado por más de un par de ojos. Reciben "un montón de basura" que se descarta de inmediato, pero el resto de las propuestas pasan a un grupo para ser examinadas por científicos en activo. Si alguien en ese proceso de selección inicial señala un artículo que puede plantear problemas, se pasa a la cadena para que lo considere el equipo de gestión antes de que se tome una decisión final. "Siempre intentamos pecar de precavidos", dice Sever. Hasta ahora no se ha publicado nada que haya resultado peligroso, considera. 

En su artículo, Smith y Sandbrink hacen recomendaciones para protegerse de posibles riesgos de bioseguridad. Por ejemplo, cuando los investigadores publiquen datos y códigos en repositorios, se les podría exigir que declaren que esos datos no son peligrosos, aunque reconocen que esto requiere un nivel de honestidad que no se esperaría de los malintencionados. Pero es un paso fácil que podría aplicarse de inmediato. 

A más largo plazo, recomiendan seguir el modelo que se ha utilizado para compartir datos de pacientes, como en los ensayos clínicos. En esa situación, los datos se almacenan en repositorios que requieren algún tipo de acuerdo de acceso para poder entrar. Para algunos de estos datos, los propios investigadores no llegan a verlos, sino que se envían a un servidor que analiza los datos lejos de los investigadores y luego devuelve los resultados. 

Por último, abogan por el prerregistro de la investigación, que ya es un pilar de la ciencia abierta. En pocas palabras, el prerregistro significa escribir lo que se pretende hacer antes de hacerlo, y mantener un registro de ello para demostrar que realmente se ha hecho. Smith y Sandbrink dicen que podría ofrecer una oportunidad para que los expertos en bioseguridad evalúen la investigación potencialmente arriesgada antes de que se lleve a cabo y den consejos sobre cómo mantenerla segura. 

Pero es un acto de equilibrio difícil de lograr, admite Sandbrink, al evitar la sobreburocratización del proceso. "El reto será decir cómo podemos hacer las cosas tan abiertas como sea posible y tan cerradas como sea necesario, garantizando al mismo tiempo la equidad y asegurando que no sean sólo los investigadores de Oxford y Cambridge los que puedan acceder a estos materiales". Habrá personas en todo el mundo cuyas credenciales pueden ser menos claras, dice Sandbrink, pero que siguen siendo investigadores legítimos y bien intencionados.

Y sería ingenuo pretender que un muro de pago o la suscripción a una revista es lo que impide a los actores nefastos. "La gente que quiere hacer daño probablemente lo hará", dice Gabrielle Samuel, una científica social del King's College de Londres cuya investigación explora las implicaciones éticas de los grandes datos y la IA. "Incluso si tenemos procesos de gobernanza realmente buenos, eso no significa que no se produzca un mal uso. Lo único que podemos hacer es intentar mitigarlo". 

Samuel cree que la mitigación de la ciencia de riesgo no empieza ni termina en la fase de publicación. El verdadero problema es que no hay incentivos para que los investigadores lleven a cabo una investigación responsable; el modo en que las revistas científicas y los organismos de financiación tienden a favorecer la investigación nueva y emocionante significa que el material más aburrido y seguro no recibe el mismo apoyo. Y la naturaleza de rueda de hámster del mundo académico hace que los científicos "simplemente no tengan la capacidad o la posibilidad de disponer de tiempo para pensar en estas cuestiones".

"No estamos diciendo que queramos que la investigación vuelva a un modelo de estar detrás de muros de pago, y que sólo sea accesible para muy pocos individuos que son lo suficientemente privilegiados como para poder permitirse el acceso a esas cosas", dice Smith. Pero ha llegado el momento de que la ciencia abierta se haga cargo de sus riesgos, antes de que ocurra lo peor. "Una vez que algo está disponible públicamente, de forma completa y abierta, es un estado bastante irreversible".

………………………

SCIENCE

APR 22, 2022 

Making Science More Open Is Good for Research—but Bad for Security

The open science movement pushes for making scientific knowledge quickly accessible to all. But a new paper warns that speed can come at a cost.


FOR DECADES, SCIENTIFIC knowledge has been firmly shut behind the lock and key of eye-wateringly expensive journal paywalls. But in recent years a tide has been turning against the rigid, antiquated barriers of traditional academic publishing. The open science movement has gained momentum in making science accessible and transparent to all.

Increasingly journals have published research that’s free for anyone to read, and scientists have shared their data among each other. The open science movement has also entailed the rise of preprint servers: repositories where scientists can post manuscripts before they go through a rigorous review by other researchers and are published in journals. No longer do scientists have to wade through the slog of the peer-review process before their research is widely available: They can submit a paper on bioRxiv and have it appear online the next day. 

But a new paper in the journal PLoS Biology argues that, while the swell of the open science movement is on the whole a good thing, it isn’t without risks. 

Though the speed of open-access publishing means important research gets out more quickly, it also means the checks required to ensure that risky science isn’t being tossed online are less meticulous. In particular, the field of synthetic biology—which involves the engineering of new organisms or the reengineering of existing organisms to have new abilities—faces what is called a dual-use dilemma: that while quickly released research may be used for the good of society, it could also be co-opted by bad actors to conduct biowarfare or bioterrorism. It also could increase the potential for an accidental release of a dangerous pathogen if, for example, someone inexperienced were able to easily get their hands on a how-to guide for designing a virus. “There is a risk that bad things are going to be shared,” says James Smith, a coauthor on the paper and a researcher at the University of Oxford. “And there’s not really processes in place at the moment to address it.”

While the risk of dual-use research is an age-old problem, “open science poses new and different challenges,” says Gigi Gronvall, a biosecurity expert and senior scholar at the Johns Hopkins Center for Health Security. “These risks have always been there, but with the advances in technology, it magnifies them.”

To be clear, this has yet to happen. No dangerous virus or other pathogen has been replicated or created from instructions in a preprint. But given that the potential consequences of this happening are so catastrophic—like triggering another pandemic—the paper’s authors argue that even small increases in risk are not worth taking. And the time to be thinking deeply about these risks is now. 

During the pandemic, the need for preprint servers was thrown into sharp relief—crucial research could be disseminated far more quickly than the traditionally sluggish journal route. But with that, it also means that “more people than ever know now how to synthesize viruses in laboratories,” says Jonas Sandbrink, a biosecurity researcher at the Future of Humanity Institute at the University of Oxford and the other coauthor of the paper. 

Of course, just because research is published in a journal instead of a preprint server doesn’t mean it’s inherently risk-free. But it does mean that any glaring dangers are more likely to be picked up in the reviewing process. “The key difference, really, between journals and the preprint server is the level of depth that the review is going into, and the journal publication process may be more likely to identify risks,” says Smith. 

The risks of open publishing don’t stop at biological research. In the AI field a similar movement toward openly sharing code and data means there’s potential for misuse. In November 2019, OpenAI announced it would not be openly publishing in full its new language model GPT-2, which can independently generate text and answer questions, for fear of “malicious applications of the technology”—meaning its potential to spread fake news and disinformation. Instead, OpenAI would publish a much smaller version of the model for researchers to tinker with, a decision that drew criticism at the time. (It went on to publish the full model in November of that year.) Its successor, GPT-3, published in 2020, was found to be capable of writing child porn.  

Two of the biggest preprint servers, medRxiv, founded in 2019 to publish medical research, and bioRxiv, founded in 2013 for biological research, publicly state on their websites that they check that “dual-use research of concern” is not being posted on their sites. “All manuscripts are screened on submission for plagiarism, non-scientific content, inappropriate article types, and material that could potentially endanger the health of individual patients or the public,” a statement on medRxiv reads. “The latter may include, but is not limited to, studies describing dual-use research and work that challenges or could compromise accepted public health measures and advice regarding infectious disease transmission, immunization, and therapy.”

From bioRxiv’s outset, biosecurity risks were always a concern, says Richard Sever, one of bioRxiv’s cofounders and assistant director of Cold Spring Harbor Laboratory Press. (Sever was a peer reviewer of Smith and Sandbrink’s paper.) He jokes that in the early days of arXiv, a preprint server for the physical sciences launched in 1991, there were worries about nuclear weapons; with bioRxiv today the worries are about bioweapons. 

Sever estimates bioRxiv and medRxiv get about 200 submissions a day, and every one of them is looked at by more than one pair of eyes. They get “a lot of crap” that is immediately tossed out, but the rest of the submissions go into a pool to be screened by practicing scientists. If someone in that initial screening process flags a paper that may pose a concern, it gets passed up the chain to be considered by the management team before a final call is made. “We always try to err on the side of caution,” Sever says. So far nothing has been posted that turned out to be dangerous, he reckons. 

A few papers have been turned away over the years because the team thought they fell into the category of dual-use research of concern. When the pandemic arrived, the issue became all the more urgent. The two servers published more than 15,000 preprints on Covid-19 by April 2021. It became an internal wrangle: Do the high life-or-death stakes of a pandemic mean they are morally required to publish papers on what they call “pathogens of pandemic potential”—like Sars-CoV-2—which they might have traditionally turned away in the past? “The risk-benefit calculation changes,” Sever says. 

But while bioRxiv and medRxiv have taken steps to deeply consider whether their output may pose a biosecurity risk or compromise public health advice, other servers and repositories may not be as fastidious. “Data and code repositories are pretty much fully open—anyone can post whatever they want,” Smith says. And Sever makes the point that if they do turn away a paper, it doesn’t mean it can’t end up online elsewhere. “It just means they can’t put it online with us.” 

In their paper, Smith and Sandbrink make recommendations to safeguard against potential biosecurity risks. For instance, when researchers post data and code in repositories, they could be required to make a declaration that that data isn’t risky—though they acknowledge that this requires a level of honesty one wouldn't expect from bad actors. But it is an easy step that could be implemented right away. 

On a longer timescale, they recommend following the model that’s been used in the sharing of patient data, such as in clinical trials. In that situation, data is stored in repositories that require some form of access agreement in order to gain entry. For some of this data, the researchers themselves don’t actually ever get to see it; instead it gets submitted to a server that analyzes the data away from the researchers and then sends back the results. 

Finally they advocate for preregistering your research, already a pillar of open science. Put simply, preregistration means writing down what you intend to do before you do it, and keeping a record of that to prove that you actually did it. Smith and Sandbrink say it could offer an opportunity for biosecurity experts to assess potentially risky research before it even happens and give advice on how to keep it secure. 

But it’s a tough balancing act to achieve, Sandbrink admits, in avoiding over-bureaucratizing the process. “The challenge will be to say, how can we make things as open as possible and as closed as necessary, whilst also ensuring equity and ensuring that it’s not just the researchers at Oxford and Cambridge that can access these materials.” There will be people around the globe whose credentials might be less clear, Sandbrink says, but who are still legitimate and well-intentioned researchers.

And it would be naive to pretend that a paywall or journal subscription is what impedes nefarious actors. “People who want to do harm will probably do harm,” says Gabrielle Samuel, a social scientist at King’s College London whose research explores the ethical implications of big data and AI. “Even if we have really good governance processes in place, that doesn’t mean that misuse won’t happen. All we can do is try to mitigate it.” 

Samuel thinks mitigating risky science doesn’t begin and end at the publishing stage. The real issue is that there’s no incentive for researchers to carry out responsible research; the way scientific journals and funding bodies have a tendency to favor new, exciting research means the more boring, safer stuff doesn’t get the same support. And the hamster-wheel nature of academia means scientists “just don’t have the capacity or chance of being able to have the time to think through these issues.”

“We’re not saying that we want research to go back to a model of being behind paywalls, and only being accessible to very few individuals who are privileged enough to be able to afford access to those things,” Smith says. But it’s time for open science to be reckoning with its risks, before the worst happens. “Once something is publicly available, fully, openly—that is a pretty irreversible state.”


Plan 2.0 para el acceso abierto: ¿un plan o una nueva ambigüedad?

Publicado en THE Times Higher Education https://www.timeshighereducation.com/news/plan-s-20-open-access-plan-bold-may-prove-ineffective   El...