Mostrando entradas con la etiqueta Investigación científica. Mostrar todas las entradas
Mostrando entradas con la etiqueta Investigación científica. Mostrar todas las entradas

miércoles, 8 de enero de 2025

U.S.A.: Asesores del Pentágono piden cautela en el refuerzo de la seguridad científica

Publicado en Science|Business
https://sciencebusiness.net/news/international-news/pentagon-advisors-urge-caution-tightening-science-security 


Asesores del Pentágono piden cautela en el refuerzo de la seguridad científica


22 mar 2024 | Noticias


El grupo asesor del gobierno estadounidense JASON afirma que unos controles de seguridad «contundentes e ineficaces» sobre la ciencia fundamental podrían perjudicar el progreso, e insta a adoptar un enfoque caso por caso.


Por Richard L. Hudson


A pesar de la creciente preocupación por la filtración a China de tecnologías estadounidenses sensibles, un grupo consultivo especial del gobierno pidió cautela antes de imponer nuevos controles generales sobre la ciencia fundamental, no sea que impidan importantes descubrimientos.


La Fundación Nacional de la Ciencia «debería proceder con cautela antes de añadir controles de acceso o difusión a subvenciones o contratos», informó el jueves el grupo, denominado JASON. Rechazó la idea de designar subdisciplinas científicas específicas como de riesgo. Ese es el tipo de enfoque de seguridad general adoptado por el gobierno canadiense en enero.


El grupo JASON, creado en 1960 al intensificarse la Guerra Fría, reúne a varios científicos estadounidenses de alto nivel en un órgano consultivo confidencial del Pentágono y los servicios de seguridad.


Desde al menos la administración Reagan, la postura del gobierno estadounidense ha sido que la investigación fundamental sólo debe restringirse en casos especiales de clasificación de seguridad nacional - y el grupo JASON, señalando que ahora «no es la primera vez que se plantea un debate nacional sobre la cuestión de la seguridad de la investigación», dijo que esos «principios» de la era de 1980 «siguen siendo válidos» hoy en día. 


En lugar de un cambio general de las normas, el grupo instaba en su informe desclasificado a considerar proyecto por proyecto los riesgos de seguridad en el momento en que los científicos solicitan una subvención a la NSF. Si un proyecto de investigación propuesto parece «sensible», la NSF podría imponer una amplia gama de medidas, sin restringir el acceso, para proteger los resultados, como revisar la propuesta, exigir informes de progreso más frecuentes o exigir salvaguardias especiales de ciberseguridad. Al hacerlo, la agencia «debería sopesar el equilibrio» entre los controles de seguridad y la ciencia abierta, señaló el grupo.   


En concreto, rechazó la idea, defendida por algunos miembros del estamento de seguridad estadounidense, de redactar nuevas normas generales para la «información no clasificada controlada», término con el que se designa la investigación que, aunque no esté clasificada legalmente como secreta, está sujeta a controles de exportación o de otro tipo. Calificó tales controles como «una herramienta bastante contundente e ineficaz» para la seguridad, que «no debe utilizarse como un enfoque de talla única para mitigar el riesgo de la investigación.»


Desde al menos 2019, la preocupación de Estados Unidos por la filtración de resultados de investigación militar o comercialmente sensibles a países no amigos, especialmente China, ha ido en aumento. En 2022, el Congreso ordenó medidas más estrictas para proteger los resultados de investigaciones sensibles, y la NSF está creando actualmente un nuevo centro de intercambio de información y directrices sobre la seguridad de la investigación.  


Países aliados de Occidente, como la UE, Gran Bretaña, Australia, Canadá, Japón y Corea, están llevando a cabo revisiones de seguridad similares. En enero, la Comisión Europea propuso una serie de nuevas medidas para mejorar la seguridad de la investigación, en gran parte debido a la preocupación por China.


El informe JASON, que no estaba clasificado, era necesario en virtud de las nuevas disposiciones de seguridad exigidas por el Congreso en la Ley CHIPS & Science de 2022. En un comunicado, la NSF afirmó que está analizando «las conclusiones y estudiará la aplicación de las recomendaciones mientras sigue desarrollando y aplicando nuevos procesos de revisión de políticas por motivos de seguridad nacional».  Según la ley, tiene de plazo hasta el 22 de mayo para finalizar su revisión de seguridad.




*****************


Pentagon advisors urge caution in tightening science security

22 Mar 2024 | News


US government advisory group JASON says ‘blunt and ineffective’ security controls on fundamental science could harm progress, and urge a case-by-case approach

By Richard L. Hudson


Despite rising worries about sensitive US technologies leaking to China, a special government advisory group urged caution before imposing any broad new controls over fundamental science, lest they inhibit important discoveries.  

The National Science Foundation “should proceed with caution before adding access or dissemination controls to grants or contracts,” the group, called JASON, reported on Thursday. It rejected the idea of designating specific scientific sub-disciplines as risky. That’s the kind of broad-brush security approach adopted by the Canadian government in January.

The JASON group, formed in 1960 as the Cold War intensified, brings together several top American scientists in a confidential advisory body to the Pentagon and security services.

Since at least the Reagan administration, the US government position has been that fundamental research should be restricted only in special cases of national security classification – and the JASON group, noting that now “is not the first time that a national debate has been raised on the issue of research security,” said that those 1980s-era “principles remain valid” today.  

Rather than a broad rule change, the group in its unclassified report urged a project-by-project consideration of any security risks at the time scientists apply for an NSF grant. If a proposed research project appears “sensitive”, it said, there is a wide range of steps short of restricting access that the NSF could impose to protect the results, such as revising the proposal, demanding more-frequent progress reports, or requiring special cyber-security safeguards. In doing so, the agency “should weigh the balance” between security controls and open science, the group said.   

It specifically rejected the idea, advocated by some in the US security establishment, of writing broad new rules for “controlled unclassified information” – a term for research that, while not legally classified as secret, is still subject to export or other forms of control. It called such controls “a rather blunt and ineffective tool” for security, that “should not be used as a one-size-fits-all approach to mitigating research risk.”

Since at least 2019, US concerns have been rising over militarily or commercially sensitive research results leaking to unfriendly countries, especially China. In 2022, Congress ordered tougher measures to protect sensitive research results, and the NSF is currently setting up a new clearing-house of information and guidelines about research security.  

Similar security reviews are underway across Western-allied countries – including in the EU, Britain, Australia, Canada, Japan and Korea. In January, the European Commission proposed a series of new measures to improve research security, in large part due to concerns about China.

The JASON report, which was unclassified, was required under new security provisions mandated by Congress in the 2022 CHIPS & Science Act. In a statement, the NSF said it is analysing “the findings and will consider the implementation of the recommendations as it continues to develop and implement new policy review processes for national security concerns.”  Under the law, it has a 22 May deadline for finishing its security review.

viernes, 3 de enero de 2025

MÉXICO: inicia la nueva Secretaria de Ciencia y Tecnología (Secihti), que sustituye al Conahcyt

Publicado en La Jornada
https://www.jornada.com.mx/noticia/2025/01/03/politica/ciencia-y-tecnologia-al-centro-del-plan-sexenal-9964



Ciencia y tecnología, al centro del plan sexenal

Alexia Villaseñor

03 de enero de 2025 

Con el objetivo de colocar los trabajos científicos y tecnológicos al centro del proyecto social de este gobierno, la flamante Secretaría de Ciencia, Humanidades, Tecnología e Innovación (Secihti) comienza operaciones con una estructura distinta al órgano que sustituyó, el Consejo Nacional de Humanidades, Ciencias y Tecnologías (Conahcyt).

La Secihti remplazará al consejo que estuvo a cargo de la investigación y desarrollo de la ciencia por más de 50 años.

La secretaría está encabezada por la doctora Rosaura Ruiz Gutiérrez y tendrá dos subsecretarías, una de Ciencia y Humanidades, que tendrá como funciones principales incentivar la formación y consolidación de la comunidad de ciencias, humanidades, tecnologías e innovación; fortalecer la investigación, y promover en la sociedad general las vocaciones y aprecio por el quehacer científico y humanístico.

Estará a cargo de Violeta Vázquez-Rojas Maldonado, doctora en lingüística, cuyas líneas de investigación son la semántica, sintaxis de la frase nominal y lingüística descriptiva. Ha dado clases en El Colegio de México y fue codirectora de la revista Cuadernos de Lingüística de esa misma institución.

La otra subsecretaría es de Tecnología e Innovación, cuyas funciones se centrarán en establecer, coordinar y apoyar la ejecución de estrategias para garantizar que toda persona goce de los beneficios de la ciencia aplicada y el desarrollo, transferencia e innovación de base científica y tecnológica.

Estará a cargo de Juan Luis Díaz de León Santiago, doctor en ciencias de la morfología matemática. Ha dado clases en el Instituto Politécnico Nacional y fue director general de ciencia, divulgación y transferencia de conocimiento en la Secretaría de Ciencia, Tecnología e Innovación de la Ciudad de México.

Ambas dependencias ejecutarán proyectos estratégicos en temas de semiconductores, transición energética y electromovilidad; observación satelital de la Tierra y monitoreo de corrientes oceánicas para el establecimiento de sistemas de alerta temprana, entre otros.

También aquellos que tengan que ver con la restauración y remediación ambiental especialmente de las cuencas con altos índices de contaminantes como Lerma-Santiago, Tula y Atoyac; la investigación para la prevención, control y tratamiento de enfermedades de mayor prevalencia.

La nueva secretaría nació tras su aprobación por Congreso de la Unión y con el decreto por el que se reforman, adicionan y derogan disposiciones de la Ley Orgánica de la Administración Pública Federal, publicada en el Diario Oficial de la Federación el pasado 28 de noviembre.

Coordinará la Universidad Nacional Rosario Castellanos y la Universidad de la Salud, que se suman a otros 25 centros públicos que estaban desde que era Conahcyt. Seguirá con los apoyos del Sistema Nacional de Investigadoras e Investigadores (SNII) y becas nacionales y en el extranjero.

Su sede será el edificio ubicado en avenida de los Insurgentes Sur 1582, antes ocupada por el Conahcyt.



miércoles, 18 de diciembre de 2024

"El Estado de la Ciencia 2024": informe anual de la Red Iberoamericana de Indicadores de Ciencia y Tecnología (RICYT) coedición OEI-UNESCO

 



El Estado de la Ciencia 2024

Iberoamérica invierte apenas el 0,73% de sus recursos económicos en investigación y desarrollo.

Se publicó "El Estado de la Ciencia 2024", el informe anual de la Red Iberoamericana de Indicadores de Ciencia y Tecnología (RICYT), una publicación coeditada por la Organización de Estados Iberoamericanos (OEI) y la UNESCO. Este informe ofrece un análisis detallado del panorama científico y tecnológico en Iberoamérica, destacando avances, desafíos y oportunidades clave en la región.
  • En 2022, los países de Iberoamérica destinaron 166.000 millones de dólares a investigación y desarrollo, lo que implicó un crecimiento del 42% respecto a 2013.
  • Sin embargo, en términos relativos al PBI, el esfuerzo de inversión realizado en 2022 por Iberoamérica representó el 0,73% del producto bruto regional. Si solo se toma a América Latina, la cifra se reduce a 0,56%.
  • Estos y otros datos se desprenden del relevamiento disponible en El Estado de la Ciencia 2024, informe anual de la Red Iberoamericana de Indicadores de Ciencia y Tecnología (RICYT) que publican OEI y Unesco.
Iberoamérica invirtió en 2022 menos de 1% de sus recursos económicos en investigación y desarrollo (I+D). Este dato se desprende de la recopilación estadística disponible en El Estado de la Ciencia 2024, publicación anual de la Red Iberoamericana de Indicadores de Ciencia y Tecnología (RICYT) que coeditan la Organización de Estados Iberoamericanos para la Educación, la Ciencia y la Cultura (OEI) -a través de su Observatorio Iberoamericano de la Ciencia, la Tecnología y la Sociedad (OCTS)- y la Unesco.

De acuerdo con la publicación, en 2022 los países de Iberoamérica destinaron 116.000 millones de dólares a I+D. Si bien esto implicó un crecimiento respecto a lo invertido una década atrás, en términos relativos al PBI el esfuerzo de inversión de ese año representó solo el 0,73% del producto bruto regional.

Esta intensidad se mantiene relativamente estable desde 2013. Si tenemos en cuenta solo los países de América Latina, la relación se reduce a 0,56%.

Brasil es el único país latinoamericano cuya inversión representa más del 1% de su PBI. El conjunto de América Latina y el Caribe (ALC) se caracteriza, además, por un fenómeno de concentración en el cual Brasil, México y Argentina representan el 83% de su inversión total.

En comparación con la inversión en I+D que realizan otros bloques geográficos, el conjunto de países de América Latina representó en 2022 el 2,5% del monto invertido en el mundo, mientras que Iberoamérica representó el 4%. En ambos casos, su peso relativo en el total de recursos destinados a I+D se redujo respecto a los niveles de 2013, a raíz del crecimiento que tuvieron los países asiáticos. Asia constituye el bloque que realiza la mayor inversión en I+D, representando el 37,4% de lo invertido a nivel mundial en 2022.

A pesar del estancamiento en la inversión, el número de científicos ha crecido considerablemente en la región en la última década.

La cantidad de investigadores y becarios con jornada completa en investigación pasó de 442.835 en 2013 a 642.383 investigadores en 2022. 

Considerando la distribución de los recursos humanos de acuerdo con el sector donde desempeñan sus tareas, el sector de educación superior es el más significativo para la región, ya que en 2022 el 46% de los investigadores iberoamericanos realizó sus actividades en el ámbito universitario. El 33% de los investigadores, es decir, uno de cada tres, se desempeñó en empresas (tanto públicas como privadas) y el 19% lo hizo en instituciones de I+D pertenecientes al ámbito público.

La calidad de la producción científica de los investigadores iberoamericanos también se ha incrementado en estos años. Las publicaciones científicas de los investigadores latinoamericanos en la base de datos Scopus superó los 198.000 artículos en 2022, creciendo a un ritmo superior al del total de publicaciones (+64%). Además, el 35% de esa producción fue realizado de manera colaborativa entre autores de diferentes países. Las ciencias físicas fueron, a su vez, las disciplinas con mayor colaboración internacional.

El nivel de patentamiento de la región continúa siendo bajo. En 2022 el número de patentes internacionales solicitadas mediante el Tratado de Cooperación en Patentes (PCT, por sus siglas en inglés) para América Latina y el Caribe fue de 1395, mientras que para el conjunto de países iberoamericanos fue 3024.

Además, en términos de patentes solicitadas en las oficinas de propiedad intelectual de los países de la región, en 2022 el 83% de las solicitudes de patentes en países de la región corresponde a no residentes, principalmente a empresas extranjeras que buscan proteger sus productos en los mercados de la región.

México es el país donde este fenómeno fue más marcado, con un 94% del total de las solicitudes en manos de no residentes. En Chile y Argentina ese valor fue de 88%, mientras que uno de los valores más bajos lo obtuvo Brasil, donde el 75% de las solicitudes corresponde a no residentes.

Sobre El Estado de la Ciencia 2024

El Estado de la Ciencia 2024 incluye una serie de indicadores seleccionados de la base de datos de RICYT.

El conjunto total, que abarca 135 series estadísticas, puede ser visitado en www.ricyt.org y es producto del esfuerzo colaborativo de los organismos de ciencia y tecnología de los veinte países participantes de la red, que proveen la información desplegada en el volumen, así como de una extensa comunidad de expertos y organizaciones internacionales.
Contenidos de la publicación aquí

Dossier sobre bioeconomía

La edición 2024 incluye un dossier sobre bioeconomía que explora un ámbito crucial para el desarrollo de los países iberoamericanos.

Los textos indagan distintos aspectos de la bioeconomía -modelo tecnoproductivo basado en el uso sostenible de recursos biológicos renovables para la producción de bienes, servicios y formas “limpias” de energía- y la producción científica que Iberoamérica le ha dedicado en materia de artículos académicos y patentes, entre otras aristas.

El dossier se cierra con casos testigos que sintetizan las oportunidades y los desafíos de la bioeconomía en Iberoamérica, con especial atención a la sostenibilidad de la selva amazónica, el desarrollo de biocombustibles, la innovación agrícola, el trabajo con semillas, la vinculación tecnológica, la promoción gubernamental a nivel nacional e internacional, etc.
© 2024 UNESCO.
Usted recibe este correo por formar parte de la lista de difusión de la Oficina de UNESCO en Montevideo.

Our mailing address is:

lunes, 9 de diciembre de 2024

El lobby de la edición científica: por qué la ciencia no funciona

Publicado en Culturico
https://culturico.com/2019/05/06/the-scientific-publishing-lobby-why-science-does-not-work/



El lobby de la edición científica: por qué la ciencia no funciona


Federico Germani


Federico es bioeticista y biólogo molecular en la Universidad de Zúrich (Suiza). Su trabajo se centra en la desinformación científica y las dudas sobre las vacunas. Es fundador y director de Culturico. Twitter @fedgermani


El progreso científico está anclado en la forma en que la ciencia se comunica a otros científicos. Los trabajos de investigación se publican a través de un sistema anticuado: las revistas científicas. Este sistema, impuesto por el lobby de las revistas científicas, ralentiza enormemente el progreso de nuestra sociedad. Este artículo analiza las limitaciones del actual sistema de publicación científica, centrándose en los intereses de las revistas, sus consecuencias para la ciencia y las posibles soluciones para superar el problema.

 

En la cadena de producción científica en el sector público hay unos pocos elementos centrales: los grupos de investigación, dirigidos por Investigadores Principales (a menudo Profesores), las Universidades e instituciones académicas, las revistas científicas y las agencias de financiación. Este artículo pretende analizar el papel detallado de cada "elemento" de esta cadena de producción científica, con el fin de comprender cómo y por qué el sistema científico actual no está consiguiendo aportar avances científicos sustanciales a nuestra sociedad.


Empecemos paso a paso.

¿Quién realiza la investigación?

Los grupos de investigación están formados por científicos que trabajan dentro de una jerarquía distinta (Fig. 1). En el extremo inferior de esta jerarquía se encuentran los estudiantes de licenciatura y máster que realizan investigaciones no remuneradas, normalmente supervisadas por un científico más experimentado. Suelen trabajar en proyectos elegidos por sus respectivos grupos de investigación durante 6 a 12 meses hasta que escriben su tesis y, en última instancia, se gradúan. Algunos estudiantes optan por permanecer en el mundo académico y solicitar un puesto de investigación de Doctor en Filosofía (PhD). Los estudiantes de doctorado suelen ser estudiantes remunerados que realizan una gran cantidad de trabajo, incluida la docencia, la asistencia a congresos y reuniones, la presentación de informes sobre los avances de su investigación, etc. Como suelen ser jóvenes, motivados y baratos, se les suele preferir a científicos con más experiencia, como los posdoctorales.

Fig. 1. Jerarquía típica de los grupos de investigación.

Dependiendo de la institución y el país, un doctorado en ciencias naturales puede durar entre 3 y 7 años, tras los cuales los estudiantes escriben una tesis o disertación y defienden su trabajo ante una comisión de profesores. En esta etapa, un doctor puede decidir seguir avanzando en su carrera académica solicitando un puesto de posdoctorado en otro grupo de investigación. Los postdocs reciben salarios relativamente altos en comparación con los de los estudiantes de doctorado. Los proyectos postdoctorales pueden durar de un año en adelante, generalmente hasta que se hace público un descubrimiento. Al final de un proyecto postdoctoral con éxito, los científicos pueden solicitar subvenciones públicas para llevar a cabo su propia investigación y, finalmente, tras un periodo de investigación satisfactorio, optar a puestos de profesorado convocados por instituciones académicas para convertirse en catedráticos. Los Investigadores Principales (IP), a menudo Catedráticos de Universidad, se encuentran en la cúspide de esta jerarquía. Son científicos consolidados que participan en actividades docentes dentro de una universidad, así como en actividades de investigación, que generalmente consisten en supervisar el trabajo de posdoctorandos y estudiantes de doctorado.

¿Cómo se comunica la ciencia?

Los grupos de investigación investigan cuestiones concretas e intentan encontrar pruebas de sus hipótesis. El trabajo de un científico implica trabajo práctico y teórico, ya que requiere la planificación experimental, la realización de experimentos y la interpretación de los datos. Los datos obtenidos se traducen en tablas e ilustraciones gráficas que pueden ser comprendidas e interpretadas por otros científicos. Estos datos y figuras se recogen en un manuscrito. El manuscrito, comúnmente denominado «artículo», ofrece una justificación de las preguntas planteadas, explica los resultados y su importancia, describe las metodologías y extrae conclusiones basadas en pruebas.

Este manuscrito acaba publicándose en una revista científica para compartir los resultados con otros grupos de investigación que investigan cuestiones similares. Las revistas científicas son empresas privadas cuya misión oficial es permitir al mundo científico comunicar, leer y comprender las investigaciones realizadas por grupos de todo el mundo. Además, su misión también es mejorar la calidad general de la investigación, ya que cada artículo se somete a un proceso de revisión por pares, que consiste en una o varias rondas de revisiones llevadas a cabo -de forma anónima- por expertos en la materia (véase un ejemplo: la misión de Nature).

Las revistas científicas como negocio

Como se explica en este artículo, las revistas científicas surgieron como la única forma exitosa de comunicar la ciencia en la era anterior a Internet. Las revistas impresas eran básicamente la única forma que tenían los científicos de informar a otros científicos sobre sus investigaciones. Las revistas científicas se beneficiaron actuando como intermediarias, ya que eran las únicas capaces de prestar este servicio. Su contribución a la ciencia ha sido, por tanto, importante y sustancial. Sin embargo, en la era de Internet, las revistas se han convertido en una forma anticuada de comunicar la ciencia. No obstante, las revistas siguen siendo los principales intermediarios entre los científicos, ya que siguen publicando investigaciones de todo el mundo en sus revistas en línea y/o impresas. Las instituciones académicas pagan enormes suscripciones anuales para poder acceder al material en línea de cada revista individual (¡y hay muchas!). La Universidad de Auckland, por ejemplo, ha gastado alrededor de 14,9 millones de dólares en 2016, solo por las 4 principales editoriales. Los grupos de investigación individuales o las instituciones académicas también pagan una cuota para publicar en revistas. Básicamente, para que se publique su investigación, los científicos pagan entre 1.000 y 6.000 dólares, dependiendo de la revista.

Los científicos pagan tasas a las revistas por publicar sus trabajos, financiadas con sus propios fondos, y luego pagan a las revistas una segunda vez para poder leer sus propias investigaciones y las de otros (Fig.2). 



Figura 2. Los científicos pagan a las revistas para publicar sus investigaciones. Los científicos pagan a las revistas para que publiquen sus investigaciones. Luego pagan a las revistas para acceder a sus contenidos. Créditos de las subimágenes: Kiranshastry, Nikita Golubev, de www.flaticon.com

En un mundo en el que la comunicación es básicamente gratuita, dadas las infinitas posibilidades que ofrece la red, esto no sólo es anacrónico, sino también ridículamente insensato. Los científicos son la vanguardia del progreso tecnológico y, sin embargo, están encadenados a un sistema que beneficia a unos pocos -los editores- y perjudica a muchos -la comunidad científica-.

Analicemos ahora las razones por las que este sistema no ha dejado de existir. Le sorprenderá saber que tiene que ver con la forma en que se contrata a los IP, pero llegaremos a eso más adelante. En primer lugar, tenemos que entender la forma en que las revistas obtienen sus beneficios y tratan con los científicos. Dado que las revistas son actualmente la única forma que tienen los científicos de hacer público su trabajo, este monopolio les permite imponer una determinada narrativa y un determinado estilo de comunicar la ciencia. Las revistas quieren progresivamente hallazgos que puedan venderse fácilmente, apoyados en grandes historias, porque son más atractivos para otros científicos y para el público en general. Para las revistas, los datos científicos no sólo deben ser concluyentes per se, sino que todos juntos deben ofrecer una imagen completa de un determinado mecanismo. En otras palabras, no hay espacio para las observaciones puras y simples, que son aquellos experimentos que constituyen los cimientos de descubrimientos mayores. Lamentablemente, la narrativa de las revistas excluye inevitablemente los trabajos de investigación que muestran resultados negativos: cuando un proyecto de investigación no consigue responder a una pregunta, el trabajo suele quedar sin publicar, dejando a la comunidad científica inevitablemente a oscuras sobre los experimentos fallidos. A menudo, científicos de otras instituciones académicas tienen ideas similares y no encuentran publicados esos resultados, lo que sugiere que la idea no se ha puesto a prueba. Por tanto, repetirán sin saberlo esos experimentos fallidos, invirtiendo dinero innecesariamente y malgastando tiempo y recursos valiosos. Llamativamente, si Alexander Fleming, con su descubrimiento de la penicilina (1) -el primer antibiótico aislado-, publicara hoy su trabajo, probablemente vería cómo las principales revistas rechazaban su artículo, a pesar de que el impacto de su descubrimiento ha sido inestimable. Esto sucedería porque el descubrimiento de Fleming comprende básicamente una única observación experimental: las propiedades antibacterianas de la penicilina. Dado que Fleming no probó el efecto terapéutico de la penicilina, las revistas no publicarían el descubrimiento, ya que no se habría percibido como una noticia de última hora.

Como ya hemos mencionado, existe un gran número de revistas científicas. En 1665, el mundo conoció las dos primeras revistas editoriales de investigación: la francesa«Journal des scavans» y la británica «Philosophical Transactions of the Royal Society» (2). Entre otras, las prestigiosas revistas Nature y Science se fundaron en 1869 y 1880 respectivamente. En la actualidad, se calcula que el número de revistas científicas existentes oscila entre 25000 y 40000, y este número sigue creciendo. Esta abundancia de publicaciones indica claramente lo rentable que es realmente este negocio. Además, hay que dejar claro que las revistas también son la causa de una serie de problemas. El creciente número de editoriales dificulta a las instituciones académicas el seguimiento de todas las investigaciones que se publican. En segundo lugar, cada revista individual comparte las investigaciones que publica en su página web privada (o en su revista impresa), a las que apenas tienen acceso los científicos, que acaban recurriendo a la información sólo en las revistas de primera categoría, por comodidad y por su estatus de élite.

Al igual que en muchos aspectos de nuestra sociedad, en la ciencia existe una desigualdad entre ricos y pobres. Aunque ésta depende principalmente de la financiación pública y privada, el sistema editorial contribuye a mantener el statu quo. Las instituciones académicas ricas pueden pagar las cuotas de publicación y suscripción de las revistas, lo que les permite «mantenerse al día» de las últimas tendencias científicas. Sin embargo, muchas otras instituciones se encuentran a menudo con dificultades para pagar las caras suscripciones, privando a sus científicos y estudiantes de acceder a los trabajos publicados. Esta maquinaria empresarial, como quiere maximizar los ingresos, chupa el dinero a quienes lo tienen. Los demás se quedan sin negocio. ¿Cuál es el resultado? La ciencia pasa a ser sólo para las élites.

¿Cómo se contrata a los científicos?

Los miembros de los grupos de investigación suelen ser contratados por los IP. Pero, ¿cómo se contrata a los propios IP? Los científicos que han investigado con éxito durante su doctorado y posdoctorado pueden, por ejemplo, solicitar plazas vacantes para ser Catedráticos de Universidad, el puesto más alto y deseado para un científico que trabaja en el sector público. Un cuerpo de catedráticos establecidos, que representan a la institución académica que concede el puesto, selecciona a los candidatos a catedráticos. Para facilitar el proceso, normalmente sólo se invita a los mejores candidatos a hacer una presentación en la institución anfitriona. Los mejores candidatos suelen ser seleccionados por sus logros académicos, basándose en su lista de publicaciones en revistas científicas. Idealmente, el éxito académico de un científico se mide con una puntuación basada en la calidad de su investigación y el número de publicaciones científicas. La calidad de un trabajo de investigación suele medirse con una puntuación denominada «factor de impacto». El factor de impacto mide la frecuencia con la que un artículo medio de una revista ha sido citado en un año.

En teoría, un artículo que recibe un elevado número de citas suele ser un buen artículo. Sin embargo, las citas se dan a menudo por el alto factor de impacto de la propia revista, debido a la mayor capacidad de las revistas de primer nivel para difundir sus artículos entre la comunidad científica. Una especie de círculo vicioso. Cuanto mayor es el factor de impacto, mayores son las posibilidades de que un investigador se convierta en IP. Básicamente, si un científico natural publica en Nature o Science, tendrá muchas posibilidades de alcanzar su objetivo: convertirse en catedrático. Existe, por tanto, una carrera de ratas por publicar en revistas que tengan una alta puntuación en el factor de impacto. En el campo de las ciencias biológicas, por ejemplo, las revistas más reputadas son Nature (factor de impacto en 2017: 41,577), Science (factor de impacto en 2016: 37,205) y Cell (factor de impacto en 2017: 31,398).

¡Vaya cantidad de citas! 

En los pasillos de las instituciones de investigación, es habitual juzgar a los científicos en función de dónde han publicado sus trabajos.

<<Tiene un artículo en Science, ¡debe de ser buena!>>, o «Nunca ha publicado nada importante [en una revista con un factor de impacto alto]. Lástima, tiene pocas posibilidades en el campo...>>.

Para las instituciones académicas, contratar nuevos IP basándose en su lista de publicaciones es actualmente la forma más rápida, barata y cuantitativa de hacer el trabajo.

¿Hay algo malo en este enfoque? Sí.

1) Competencia negativa: la competencia suele ser un impulso positivo para mejorar, pero a veces puede ser negativa, cuando, por ejemplo, induce y recompensa comportamientos egoístas y antagónicos. La competencia científica viene dada por el hecho de que sólo se publica un número muy reducido de trabajos de investigación en revistas de primer nivel, y los resultados tienen que incluir un descubrimiento innovador o introducir enfoques novedosos y muy progresistas. Por ejemplo, la revista Science acepta menos del 7% de los trabajos presentados.

En un mundo en el que la comunicación es básicamente gratuita, dadas las infinitas posibilidades que ofrece la red, esto no sólo es anacrónico, sino también ridículamente insensato. Los científicos son la vanguardia del progreso tecnológico y, sin embargo, están encadenados a un sistema que beneficia a unos pocos -los editores- y perjudica a muchos -la comunidad científica-.

Como hay un número limitado de puestos de IP disponibles, publicar en revistas de primera categoría se convierte en una prioridad para los científicos ambiciosos. La competencia científica es negativa a dos niveles: dentro de un equipo de investigación y entre grupos. Dentro de un equipo de investigación, los miembros del laboratorio luchan por decidir la autoría de un trabajo de investigación: ¿quién es el descubridor? ¿Quién es el autor más importante? Esto suele provocar debates internos y peleas dentro de un equipo de investigación, lo que a menudo hace que el individualismo se convierta en el comportamiento predominante en el lugar de trabajo. De hecho, para evitar este tipo de conflictos internos, los científicos suelen evitar colaborar con sus propios colegas, por temor a que puedan interferir en el momento de presentar un manuscrito para su publicación. De hecho, en el sector público, cada científico lleva a cabo un proyecto individual1. Los equipos trabajan en varios proyectos individuales, aunque a menudo interconectados, en lugar de trabajar en un único proyecto como equipo. Por supuesto, esto suele reducir la productividad general y la eficiencia de un equipo de investigación.

1Este no es el caso del sector privado. Por ejemplo, todos los científicos que trabajan para las industrias farmacéuticas tienen el mismo objetivo. Por tanto, su trabajo es coordinado, eficiente y orientado a objetivos.

El segundo aspecto es la competencia entre grupos de investigación: puesto que la ciencia debe buscar el progreso para nuestra sociedad colectiva, debería ser una estructura de trabajo muy colaborativa, si no la que más, de todas las que conocemos. Pero debido a esta competencia, los científicos a menudo ocultan o mienten sobre sus datos preliminares en los congresos científicos, por miedo a que otros científicos recojan sus ideas y se las «apropien». La «primicia» es, de hecho, uno de los mayores temores de un científico: trabajar durante años en un proyecto, lograr resultados importantes, escribir el manuscrito para su publicación, sólo para descubrir que otro grupo de investigación acaba de publicar un trabajo casi idéntico al suyo. ¡Qué frustración!

¿Cuáles son las consecuencias de este miedo? Los científicos dejan de ser individuos colaborativos. No comparten ideas, datos ni reactivos. No buscan la opinión de los demás, por miedo a que les roben sus ideas. Debido a este muro que construyen para proteger su carrera/trabajo, a menudo no son conscientes de la posibilidad de que otro grupo de investigación pueda estar trabajando en un proyecto muy similar y, de hecho, a menudo temen esta posibilidad. En lugar de colaborar, descubrir algo más rápido y demostrar una teoría de forma más convincente, los científicos malgastan su tiempo y dinero trabajando en lo mismo de forma independiente, con el fin de alcanzar la gloria de la publicación. Por supuesto, no siempre es así, pero cada vez se está convirtiendo en un escenario bastante común.

Otra consecuencia de la competencia negativa de la que hemos hablado hasta ahora es que los investigadores, sobre todo los que se encuentran en las primeras fases de su carrera, como los estudiantes de doctorado, experimentan problemas con su bienestar psicológico. Realizar un doctorado provoca estrés, ansiedad y depresión ( 4).

2) El segundo aspecto negativo del enfoque utilizado para contratar científicos es consecuencia del primero: la competencia negativa fomenta el comportamiento deshonesto.

Para hacer carrera en el mundo académico, un científico sabe que tiene que publicar en revistas de alto impacto y hará todo lo posible para conseguirlo, incluso hacer trampas. Estos científicos olvidan a menudo la verdadera razón por la que se dedican a la ciencia (de la que hablamos aquí).

¿Cómo puede engañar un científico? Antes hemos mencionado que los investigadores llevan a cabo investigaciones bastante individualistas. Pueden simplemente afirmar que han descubierto algo que no han descubierto. Cada vez se dan más casos increíbles de falsificación de datos, como el trágico suicidio de Yoshiki Sasai, presionado para que se retractara de dos polémicos artículos publicados en Nature debido a que se afirmaba que contenían datos manipulados. Retractarse de un artículo significa que un manuscrito publicado anteriormente deja de estar oficialmente disponible para el público científico y no científico en general. Básicamente, el descubrimiento queda anulado. El número de artículos retirados por las revistas se ha multiplicado por 10 en la última década, según Science. Antes del año 2000 había menos de 100 retractaciones al año. En 2014, se retractaron casi 1.000 artículos. No obstante, este hecho sigue siendo poco frecuente, con unas 4 retractaciones por cada 10.000 artículos publicados, pero debería ser motivo de preocupación, ya que estas manipulaciones de datos son fácilmente identificables.

Cuando se hacen afirmaciones falsas, otros grupos de investigación suelen trabajar para reproducir los datos publicados anteriormente por las siguientes razones: competencia, incredulidad, interés y curiosidad. Cuando hay un indicio claro de manipulación de datos, al final alguien es capaz de descubrirlo. Cuando esto ocurre, se suele publicar un artículo contradictorio y, en algunos casos, se lleva a cabo una investigación para comprender lo sucedido. Sin embargo, el principal reto se plantea cuando se trata de los tipos sutiles y meticulosos de manipulación de datos. Consiste en eliminar uno o más puntos de datos de un conjunto de datos para conseguir significación estadística, una medida que se utiliza generalmente para demostrar que una teoría apoyada por los datos experimentales es correcta. En otros casos, consiste en «photoshopear» imágenes para hacer creer al lector que ve algo aunque ese algo no debería estar ahí. A veces se trata del «embellecimiento de los datos», que consiste en cualquier procedimiento que aumente la «calidad» de los datos presentados. Este último procedimiento es algo parecido a lo que hacen algunos supermercados cuando quieren aumentar sus ventas de fruta: añadir cera en la cáscara de las manzanas para hacerlas más atractivas al comprador. Hay ejemplos de mala conducta científica por todas partes en Internet, pero para el lector interesado recomendaría la lectura de la historia de Olivier Voinnet, un famoso biólogo de plantas que ha sido acusado de fraude científico en múltiples trabajos a lo largo de su carrera. Sugiero este caso en particular por dos razones: 1) su caso de mala conducta científica se debió supuestamente a múltiples «embellecimientos de datos», manchas con Photoshop, etc., y 2) solía impartir -antes de que concluyera la investigación- un curso de genética al que asistí en la ETH de Zúrich hace unos años. Su «ego» se podía sentir desde la parte delantera hasta la trasera de la sala de conferencias (para un análisis en profundidad de la mala conducta científica debida al narcisismo de los científicos, léase el libro de Bruno Lemaitre «An essay on science and narcissism» (3)). El principal problema de estos comportamientos científicos es que las «pequeñas trampas» son más difíciles de detectar. Incluso cuando esto ocurre -todavía la mayoría de las veces- este conocimiento no se transforma en una publicación porque, para publicar un artículo de refutación, refutando uno previamente publicado, las revistas requieren que los científicos construyan una historia convincente, con muchos datos de apoyo. Refutar algo en ciencia es bastante difícil y requiere mucho más trabajo que demostrar que algo es cierto. Por este motivo, los científicos suelen reservarse estos conocimientos, dejando ahí fuera descubrimientos parcialmente falsos.

¿Cómo se financian los IP?

Los IP necesitan dinero para dirigir un laboratorio: tienen que pagar los sueldos de sus científicos, los costes del equipo, los impuestos, las tasas de publicación, etc. Pero, ¿de dónde sale ese dinero?

Hay organismos públicos y privados que conceden subvenciones. Básicamente, un IP puede presentar una propuesta de investigación, donde describe el beneficio potencial de estudiar algo específico. Si la solicitud tiene éxito, recibirá la financiación. Las agencias que conceden subvenciones, para decidir cómo distribuir su dinero, suelen seguir una estrategia similar a la que siguen las instituciones académicas para contratar a sus profesores. Suelen repasar el currículo académico y buscar las revistas en las que el solicitante ha publicado sus investigaciones a lo largo de su carrera. Cuantas más publicaciones en revistas de alto impacto, más posibilidades de obtener financiación. La misma historia de siempre.

Recapitulando

Recapitulando lo dicho hasta ahora: los científicos se hacen famosos por sus descubrimientos publicados en revistas de primer nivel. Los científicos pagan a las revistas por publicar sus descubrimientos y para poder leer sobre los descubrimientos de los demás. Los científicos son elegidos para dirigir un grupo de laboratorio si han publicado en revistas de renombre a lo largo de su carrera. Del mismo modo, cuando se encargan de las finanzas de un grupo de laboratorio, reciben más financiación si tienen un currículum académico «respetable», es decir, un historial de publicaciones de gran impacto. El sistema de publicación desincentiva aún más la publicación de observaciones aisladas, que podrían ser de gran utilidad para la comunidad científica. También desalienta la publicación de resultados negativos. En cambio, fomenta indirectamente la mala conducta científica, al crear un entorno competitivo y egocéntrico. Todos estos elementos, a su vez, causan efectos dramáticos en la productividad científica mundial, tanto en términos de calidad como de cantidad. Además, aumentan la desigualdad científica entre el mundo desarrollado y el mundo en desarrollo.


Figura 3. Visión general del sistema de publicación científica: cómo las revistas mantienen un statu quo rentable. Créditos de las subimágenes: Rami McMin, Freepik, Kiranshastry, Nikita Golubev, de www.flaticon.com 

Quienes sacan provecho de todo esto son las revistas y sólo las revistas. Mantienen un negocio muy rentable, causando descontento y angustia en la comunidad científica y ridiculizando al público general, que no es consciente y confía en la investigación.

En el siguiente párrafo, entenderemos cómo las revistas mantienen el actual sistema de publicación.

¿Cómo mantienen las revistas este sistema?

Hay dos formas predominantes de que las revistas mantengan el sistema: recompensando y presionando.

Recompensar: todos los profesores importantes y consagrados se han hecho famosos publicando en revistas. Como todo el mundo, creen que sus logros son fruto de su esfuerzo e inteligencia. Si lo consiguieron dentro de este sistema y creen que se lo merecían, la mayoría de ellos pensará probablemente que el sistema funciona suficientemente bien. Incluso cuando científicos importantes se manifiestan en contra de las revistas, esto no es suficiente. Entre los muchos científicos, Randy Schekman- Premio Nobel de Fisiología o Medicina 2013 - en un artículo en 'The Guardian' acusó a las principales revistas de arruinar la ciencia (echa un vistazo a la entrevista de Culturico con Randy Schekman)

Cabildeo: para mantener un negocio próspero, las revistas necesitan encontrar una forma práctica de hacer que alguien más esté contento con el statu quo. Las personas que se benefician de las actividades comerciales de las revistas son los IP que se han hecho populares dentro del sistema y han sido seleccionados para convertirse en editores revisores de una revista específica de primera categoría. Los editores revisores son profesores establecidos que, sin dejar de investigar para su institución académica pública, «trabajan» concomitantemente para las revistas en el proceso de revisión de artículos. Entre otras ventajas, pueden decidir qué revisores se seleccionan para un manuscrito concreto, influir en la aceptación o el rechazo de un artículo y leer artículos inéditos e inspirarse en ellos. Ser editor revisor de una revista de primera categoría no sólo es útil para un IP (individualmente hablando), sino que también es muy prestigioso. Las revistas más conocidas seleccionan a sus candidatos entre los científicos más influyentes de instituciones destacadas.

Para ver un ejemplo, eche un vistazo a la junta de editores revisores de Science aquí. Debido al orden alfabético, el primero de la lista es Adriano Aguzzi, científico líder en el campo de las enfermedades priónicas (enfermedades neurodegenerativas como la famosa enfermedad de las vacas locas), cuyo laboratorio se encuentra en el Hospital Universitario de Zúrich, Suiza. En una reciente charla impartida en la Universidad de Zúrich - Aguzzi - no sólo se las arregló para hablar de sus incuestionables resultados de investigación, sino que también se las arregló para presumir repetidamente de sus múltiples publicaciones en Nature, Cell y Science durante la breve presentación. Este ejemplo demuestra cómo las revistas de primera categoría consiguen vender su marca a los científicos más importantes.

Por tanto, las revistas son capaces, dentro de este sistema, de influir en la comunidad científica para mantener el statu quo, lo que les resulta ventajoso.

¿Cómo desafiar al sistema?

Hay varias formas de desafiar al sistema, pero se trata de formular una estrategia para romper el lobby de las revistas científicas. Hasta ahora, ha habido pequeños intentos de desafiar problemas concretos planteados por el actual sistema de publicación científica: por ejemplo, debido a la creciente presión dentro de la comunidad científica, algunas revistas de bajo impacto empezaron a aceptar resultados negativos para su publicación. En cambio, Science Matters es una revista de reciente creación que publica observaciones experimentales únicas. Otras revistas, como eLife, son totalmente de «acceso abierto», lo que significa que no hay costes de suscripción, aunque los investigadores siguen teniendo que pagar para publicar. Cada vez más revistas son de acceso abierto, gracias a la presión de la comunidad científica. En particular, un gran esfuerzo lo realiza un consorcio internacional de financiadores de la investigación, que estableció una iniciativa denominada «Plan S».

El Plan S se basa en la idea de que la investigación financiada con fondos públicos debe publicarse únicamente en revistas de acceso abierto. El consorcio, apoyado por las principales agencias de financiación del mundo (vea una lista aquí), está sometiendo actualmente a las revistas de primer nivel a una gran presión. Otro esfuerzo para permitir las publicaciones gratuitas y de acceso abierto lo realizó la Universidad de Cornell al fundar ArXiv, una plataforma en línea donde los científicos pueden subir rápidamente sus manuscritos sin revisión por pares. El sistema funcionó muy bien en Física, y se hizo un intento similar -y también exitoso- para las ciencias naturales con BioRxiv. Sin embargo, los científicos siguen sintiendo la necesidad de publicar en revistas, limitando estas plataformas como herramientas para comunicar rápidamente los resultados de una investigación.

 Sin embargo, aunque importantes, todos estos esfuerzos siguen siendo insuficientes.

La mejor manera de interrumpir el círculo vicioso es actuar simultáneamente a distintos niveles. El mejor escenario es que los científicos más destacados abandonen la comunidad científica y se unan a la comunidad política internacional, que no sabe nada de ciencia. Lo ideal sería que los científicos que trabajan en organizaciones internacionales como la Organización de las Naciones Unidas (ONU) promovieran la fundación de un organismo científico internacional que regule y legisle las cuestiones científicas. Existen, por ejemplo, organismos internacionales que regulan la economía mundial, pero no existe ningún organismo que regule la ciencia. En un mundo ideal, podríamos imaginar la existencia de una plataforma en línea de publicación gratuita basada en la ONU. En ella se publicarían trabajos de investigación de todo el mundo, con varias ventajas:

  1. Sin gastos de publicación.

  2. Sin costes de lectura.

  3. Sin necesidad de revistas científicas.

  4. Una única base de datos mundial en lugar de una multitud de revistas individuales:

  5. Reducción de la desigualdad científica, permitiendo a los laboratorios de investigación de los países en desarrollo hacer oír su voz,

  6. No hay necesidad de competencia individualista en la ciencia: los investigadores podrían cooperar más entre sí, dentro de los distintos grupos de investigación y entre ellos.

  7. Sin presiones para publicar en revistas de primer nivel, lo que desincentivaría las trampas. La atención se centraría en la calidad de la investigación.

  8. En definitiva, todos los puntos anteriores conducirían a una generación de conocimiento más rápida y sólida. 

Sin embargo, esta idea tiene algunos defectos. Pero también hay soluciones para estos problemas.

Problema nº 1: el sistema de revisión por pares.

El sistema de revisión por pares suele ser anónimo, lo que significa que los comentarios de los revisores no son públicos ni se divulga su nombre.

Solución n.1: este modelo, aunque gusta a muchos científicos, está bastante anticuado. De hecho, empresas como TripAdvisor o Airbnb, entre otras, han introducido un sistema de calificación para reseñar la calidad de restaurantes, hoteles, etc. (véase la figura 4). La gente escribe reseñas y da valoraciones con su nombre público. Hacer públicos los nombres de los revisores permite transparencia y aumenta la calidad de las revisiones. Del mismo modo, una plataforma de publicación en línea basada en la ONU podría utilizar un sistema de calificación y revisión abierto a todos los miembros de la comunidad científica. Los usuarios registrados pueden puntuar y comentar los artículos. La revisión por pares se convertiría así en un proceso bastante abierto y público.

Problema nº 2: Competencia.

Incluso con una plataforma así, la ciencia seguiría siendo muy competitiva. La elección de los mejores candidatos a IP en función de su lista de publicaciones es actualmente la forma de determinar quién es mejor científico.

Solución n.2: la solución a este problema es polifacética. La calidad de un trabajo de investigación podría definirse mediante dos factores, una vez que exista una plataforma internacional libre de publicaciones: el número de citas y la puntuación recibida. El primer factor es una aproximación decente a la calidad de un trabajo, una vez que el sesgo de las revistas deja de estar presente. El segundo es una valoración directa dada por otros científicos. Estas puntuaciones también contribuirán a generar puntuaciones individuales para los científicos, ayudando así a clasificarlos. Como la ciencia no sigue un planteamiento de sistema «democrático», quizá no deba darse a los individuos el mismo «peso», o importancia, en la puntuación. ¿Por qué?  

Imaginemos que un profesor de Física califica un trabajo en el campo de la Genética. No tendrá los mismos conocimientos que un catedrático que trabaje en el mismo campo. O imaginemos a un estudiante de doctorado frente a un profesor: podemos hacer una suposición similar. Un algoritmo sólido debería asignar pesos de puntuación individuales en función de varios parámetros, como: el campo de estudio del evaluador, su posición, su puntuación individual (dada por el número de citas combinado con las calificaciones recibidas).


Figura 4. El sistema de revisión de Airbnb

¿Una plataforma así resolvería también otros problemas? Sí, y he aquí por qué.

  • Los resultados negativos y las observaciones individuales podrían publicarse sin problemas.

  • Los científicos podrían elegir su estilo individual de comunicación, que no sería el impuesto por una empresa privada.

  • Las malas investigaciones recibirían malas calificaciones, y en general malos comentarios, con pruebas experimentales compuestas por observaciones individuales.

Sería más fácil hacer un seguimiento de los proyectos de investigación. Por ejemplo, se podría imaginar la siguiente «conversación científica» ficticia en la plataforma:

Artículo publicado (Grupo de investigación 1) -> El profesor X (Grupo de investigación 2) no está convencido de algo y pide aclaraciones públicamente -> El grupo de investigación 1 responde publicando una única observación.

O bien: Documento publicado (Grupo de investigación 1) -> Documento de seguimiento (Grupo de investigación 1) -> Documento de seguimiento (Grupo de investigación 2)  

Estos escenarios ayudarían a establecer una mayor cooperación entre los grupos de investigación.

Por último, las instituciones académicas y los organismos de financiación también tendrían que cambiar su enfoque. En lugar de tomar decisiones basándose en una lista de revistas en las que un científico ha publicado, las universidades podrían leer realmente los artículos para tomar decisiones, entrevistar a candidatos individuales con mayor esfuerzo que el actual, quizás tratando de entender si también serían buenos profesores. Además de crear una «plataforma de publicación en línea basada en la ONU», existe un punto de entrada alternativo para romper el círculo vicioso: si las principales universidades se ponen de acuerdo para dejar de publicar en revistas, creando una plataforma común o publicando en su propio sitio web individual en línea. Aunque parece una solución más sencilla, no lo es tanto, ya que las revistas que ejercen presión tienen fuertes vínculos con importantes profesores de las instituciones más importantes del mundo.

Por lo tanto, la mejor solución para erradicar el lobby de las publicaciones científicas parece ser la comunidad en general, y no la propia comunidad científica. Los políticos (los científicos, sin embargo, no están excluidos) podrían ser la mejor solución para mejorar la ciencia, generando un impacto enorme, incalculable. Con el asesoramiento de científicos concienciados, podrían impulsar la formación de un organismo científico internacional que promoviera un cambio drástico en el funcionamiento del sistema de publicación científica, por ejemplo creando -como se ha sugerido- una plataforma gratuita de publicación en línea. El derecho internacional debería aplicarse sin duda a la ciencia, ya que busca el progreso de la humanidad en su conjunto.

Federico Germani



***************************************************









fig3_the scientific publishing lobby

The scientific publishing lobby: why science does not work

Federico Germani

Federico is a bioethicist and molecular biologist at the University of Zurich, Switzerland. His work focuses on scientific misinformation and vaccine hesitancy. He is the founder and director of Culturico. Twitter @fedgermani

Scientific progress is anchored in the way science is communicated to other scientists. Research papers are published through an antiquated system: scientific journals. This system, enforced by the scientific journals’ lobby, enormously slows down the progress of our society. This article analyzes the limitations of the current scientific publishing system, focusing on journals’ interests, their consequences on science and possible solutions to overcome the problem.

 

There are a few core elements in the scientific chain of production in the public sector: research groups, led by Principal Investigators (often Professors), Universities and academic institutions, scientific journals, and funding agencies. This article aims to analyze the detailed role of each “element” of this scientific chain of production, in order to understand how and why the current scientific system is failing to bring substantial scientific progress to our society.

Let’s start step by step.  

Who is performing the research?

Research groups consist of scientists who work within a distinct hierarchy (Fig. 1). At the lower end of this hierarchy lies the Bachelor and Master students who perform unpaid research, usually supervised by a more experienced scientist. They usually work on projects chosen by their respective research groups for 6 to 12 months until they write their thesis and ultimately graduate. Some students choose to stay in academia and apply for a Doctor of Philosophy (PhD) research position. PhD students are generally remunerated students that perform a substantial amount of work, including teaching, attending congresses and meetings, reporting the progress of their research, etc. As they are generally young, motivated and cheap, they are often preferred to more experienced scientists such as post-docs. 

 

fig1_the scientific publishing lobbyFig. 1. Typical hierarchy of research groups.

Depending on the institution and country, a PhD in natural sciences can last anywhere between 3 and 7 years, after which students write a thesis or dissertation and defend their work in front of a commission of Professors. At this stage, a PhD may decide to further proceed in their academic career by applying for a post-doc position in another research group. Post-docs receive salaries that are relatively high when compared to those of PhD students. Post-doc projects can last anytime from 1 year upwards, generally until a discovery is made public. At the end of a successful post-doc project, scientists may apply for public grants to conduct their own research, and eventually, after a successful period of research, apply for faculty positions announced by academic institutions to become professors. Principal Investigators (PIs), often University Professors, are at the top of this hierarchy. They are established scientists involved in teaching activities within a university, as well as research activities, which generally consists of supervising the work of post-docs and PhD students.   

How is science communicated?

Research groups investigate specific questions and try to find evidence for their hypotheses. The work of a scientist involves practical and theoretical work, as it requires experimental planning, performing experiments, and the interpretation of data. Obtained data are translated into charts and graphical illustrations that can be understood and interpreted by other scientists. These data and figures are collected in a manuscript. The manuscript, commonly referred to as the “paper”, provides a rationale to the questions asked, explains the results and their importance, describes the methodologies, and draws evidence-based conclusions.

This manuscript eventually ends up being published in a scientific journal to share the results with other research groups investigating similar questions. Scientific journals are private companies whose official mission is to allow the scientific world to communicate, read and understand the research performed by groups all over the world. Further, their mission is also to improve the general quality of research, since each article undergoes a process of peer-review, which consists of one or more rounds of revisions carried out – anonymously – by experts in the field (see an example: Nature’s mission).  

Scientific journals as a business

As explained in this article, scientific journals emerged as the only successful way to communicate science in the pre-internet era. Printed magazines were basically the only way for scientists to tell other scientists about their research. Scientific journals profited by acting as intermediaries, as they were the only ones able to provide this service. Their contribution to science has therefore been important, and substantial. However, in the internet era, journals have become an antiquated way to communicate science. Nonetheless, journals continue to be the main intermediaries between scientists, as they keep publishing worldwide research in their online and/or printed magazines. Academic institutions pay huge yearly subscriptions to be able to access online material from each individual journal (and there are many!). The University of Auckland, for example, has spent around US $14.9 million in 2016, just for the 4 main publishers. Individual research groups or academic institutions also pay a fee in order to publish in journals. Basically, to get their research published, scientists pay between US $1’000 and US $6’000 depending on the journal.

Scientists pay fees to journals for publishing their work, financed with their own funds, and then they pay journals a second time to be able to read their own research and those of others (Fig.2).  

 

figure2_the scientific publishing lobbyFigure 2. Scientists pay journals to publish their research. They then pay journals to access their contents. Subimages credits: Kiranshastry, Nikita Golubev, from www.flaticon.com

In a world where communication is basically for free, given the infinite possibilities that the web offers, this is not only anachronistic, but also ridiculously foolish. Scientists are the forefront of technological progress, and are nonetheless chained to a system that is advantageous to few – the publishers – and disadvantageous to many – the scientific community.  

Let’s now analyze the reasons why this system hasn’t ceased to exist. You will be surprised to know that it deals with the way PIs are hired, but we will get to that later. Firstly, we need to understand the way journals make their profit and deal with scientists. Given that journals are currently the only way scientists make their work public, this monopoly allows them to further impose a certain narrative and a certain style of communicating science. Journals progressively want findings that can be easily sold, supported by big stories, because they are more appealing to other scientists and the general public. For journals, scientific data should not only be conclusive per se, but should all together offer a complete picture of a certain mechanism. There is, in other words, no space for pure and simple observations, which are those experiments that constitute the building blocks for bigger discoveries. Sadly enough, the journals’ narrative inevitably excludes research papers that show negative results: when a research project fails to answer a question, the work often goes unpublished leaving the scientific community inevitably in the dark on failed experiments. Often scientists from other academic institutions have similar ideas, and won’t find these results published, suggesting that the idea hasn’t been tested. They will therefore unknowingly repeat those failed experiments whilst unnecessarily investing money and wasting valuable time and resources. Strikingly, if Alexander Fleming, with his discovery of Penicillin (1) – the first isolated antibiotic – were to publish his paper today, he would likely see his paper rejected by the major journals, although the impact of his discovery has been inestimable. This would happen because Fleming’s discovery basically comprises a single experimental observation: the antibacterial properties of penicillin. Since penicillin’s therapeutic effect wasn’t tested by Fleming, journals wouldn’t be likely to publish the discovery, as it wouldn’t have been perceived as breaking news. 

As we already mentioned, there is a vast number of scientific journals out there. In 1665, the world was introduced to the first two editorial magazines to publish research: the French “Journal des scavans” and the British “Philosophical Transactions of the Royal Society(2). Among others, the prestigious magazines Nature and Science were founded in 1869 and 1880 respectively. Currently, the estimated number of existing scientific journals is somewhere between 25000 and 40000, and this number keeps on growing. This abundance of publications clearly indicates how profitable this business really is. Additionally, it must be made clear that journals are the cause of a set of problems too. The increasing number of publishers makes it harder for academic institutions to keep track of all the research that gets published. Secondly, each individual journal shares the research they publish on their private website (or printed magazine), which are hardly accessible to scientists who end up resorting to information only in top-notch journals, for convenience and because of their elite status.  

Similar to many aspects of our society, there is inequality between the rich and the poor in science. Although this primarily depends on public and private funding, the publishing system helps to maintain the status quo. Rich academic institutions can afford the journals’ publication and subscription fees, thereby allowing them to ‘keep up’ with the latest scientific trends. However, many other institutions often find themselves struggling to afford the pricy subscriptions, depriving their scientists and students from reaching the published work. This business machinery, as it wants to maximize the revenues, sucks money from those who have it. The others are out of business. The result? Science becomes only for the elites.  

How are scientists hired?

Research group members are normally hired by PIs. But how are PIs themselves hired? Scientists who performed successful research during their PhD and post-doc(s) can for instance apply for open positions to become University Professors, the highest and most desired position for a scientist working in the public sector. A body of established professors, who represent the academic institution awarding the position, selects the candidate professors. To facilitate the process, only the very best candidates are usually invited to give a presentation at the host institution. The best candidates are normally selected for their academic achievements based on their list of publications in scientific journals. Ideally, the academic success of a scientist is measured as a score that is based on the quality of their research and the number of scientific publications. The quality of a research paper is generally measured with a score called “impact factor”. The impact factor measures the frequency with which an average article in a journal has been cited in one year.  

In theory, a paper that receives a high number of citations is generally a good paper. However, citations are often given because of the high impact factor of the journal itself, due to the higher ability of top-notch journals to spread their articles to the scientific community. A sort of vicious circle. The higher the impact factor, the higher the chance a researcher will become a PI. Basically, if a natural scientist publishes in Nature or Science, he or she will have a good chance to reach their objective: becoming a Professor. There is therefore a rat race to publish in journals that have a high impact factor score. In the field of biological sciences, for instance, the most renowned journals are Nature (2017 impact factor: 41.577), Science (2016 impact factor: 37.205) and Cell (2017 impact factor: 31.398).

Quite a lot of citations!  

Along the corridors of research institutions, it is common to pass judgment on scientists based on where they published their papers.

<<She has a Science paper, she must be good!>>, or <<She’s never published high [in a journal with a high impact factor]. Pity, she has little chance in the field…>>.

For academic institutions, hiring new PIs based on their list of publication is currently the fastest, cheapest and most quantitative way to get the job done.

Is there something wrong with this approach? Yes.  

1) Negative competition: competition is often a positive push to do better, but sometimes can be negative, when for instance it induces and rewards egoistic and antagonistic behaviors. Scientific competition is created by the fact that only a very small number of research papers gets published in top-notch journals, and the findings have to include a groundbreaking discovery or introduce novel and very progressive approaches. For instance, the journal Science accepts less than 7% of the submitted papers.  

As there is a limited number of available PI positions, publishing in top-notch journals becomes a priority for ambitious scientists. Scientific competition is negative on two levels: within a research team and between groups. Within a research team, lab members struggle to decide the authorship of a research paper: who is the discoverer? Who is the most important author? This often causes internal debates and fights within a research team, often causing individualism to became the predominant behavior in the workplace. Indeed, to avoid this sort of internal conflict, scientists often avoid collaboration with their own colleagues, fearing they could otherwise interfere when a manuscript is submitted for publication. In fact, in the public sector, each individual scientist carries out an individual project1. Teams work on several, although often interconnected, individual projects, rather than working on a single project as a team. Of course, this usually reduces the general productivity and efficiency of a research team.  

1This is not the case for the private sector. For instance, all scientists that work for pharmaceutical industries have the same objective. Thus, their work is coordinated, efficient and goal oriented.

The second aspect is the competition between research groups: since science should seek out progress for our collective society, it should be a very, if not the most, collaborative work structure we know. But because of this competition, scientists often hide or lie about their preliminary data at scientific conferences, fearing some other scientists would pick up their ideas and “scoop” them. “Being scooped” is indeed one of the major fears for a scientist: working for years on a project, achieving important results, writing the manuscript for publication, only to find that another research group has just published work that is almost identical to yours. What a frustration! 

What are the consequences of this fear? Scientists stop being collaborative individuals. They do not share ideas, data, or reagents. They do not seek out the opinion of others, for fear of their ideas being stolen. Because of this wall they build to protect their career/work, they are often unaware of the possibility that another research group may be working on a very similar project, and indeed often fear this possibility. Instead of collaborating, discovering something faster and demonstrating a theory more convincingly, scientists waste their time and money working on the same thing independently, in order to achieve the publication glory. Of course, this isn’t always the case, but it is increasingly becoming a rather common scenario.

Another consequence of the negative competition we have discussed so far, is that researchers, in particular those at earlier stages of their career such as PhD students, are experiencing troubles with their psychological wellbeing. Doing a PhD causes stress, anxiety and depression (4).

2) The second negative aspect of the approach used to hire scientist is a consequence of the first: negative competition encourages dishonest behavior.

In order to make a career in academia, a scientist knows they have to publish in high-impact journals and will do whatever they can to achieve this, even cheating. These scientists often forget the real reason for pursuing a career in science (discussed here).

How can a scientist cheat? We mentioned earlier on that researchers conduct rather individualistic research. They can simply claim that they have discovered something they haven’t. Incredible cases of data falsification are on the rise, such as the tragic suicide of Yoshiki Sasai, who was under pressure for the retraction of two controversial papers published in Nature due to claims they contained manipulated data. Retracting a paper means that a previously published manuscript becomes officially unavailable for the general scientific and non-scientific public. Basically, the discovery is made void. The number of articles retracted by journals has increased 10-fold in the last decade, according to Science. There were fewer than 100 retractions per year before 2000. In 2014, nearly 1000 papers were retracted. This however still remains a rare event, with about 4 retractions for every 10’000 papers published but should nonetheless be a cause of concern since these data manipulations are easily identifiable.  

When false claims are made, other research groups often work on reproducing the previously published data for the following reasons: competition, disbelief, interest and curiosity. When there is a clear hint of data tampering, somebody eventually is able to spot it. When this happens, a contradictory paper is generally published and, in some cases, an investigation is carried out to understand what happened. However, the main challenge is when dealing with the subtle, meticulous kinds of data manipulation. This consists in removing one or more data points from a dataset to achieve statistical significance, a measure that is generally used to demonstrate that a theory supported by the experimental data is correct. In other cases, it consists of “photoshopping” images to make the reader believe they see something although that something shouldn’t be there. Sometimes it is about “data beautification”, which consists of any procedure that increases the “quality” of presented data. This latter procedure is somewhat similar to what some supermarkets do when they want to increase their fruit sales: by adding wax on the peal of apples to make them more appealing to the buyer. There are examples of scientific misconduct everywhere on the Internet, but for the interested reader I would recommend reading the story of Olivier Voinnet, a famous plant biologist that has been accused of scientific fraud in multiple papers throughout his career. I suggest this case in particular for two reasons: 1) his case of scientific misconduct was reportedly due to multiple “data beautifications”, Photoshopped blots, etc, and 2), he used to teach – before the investigation was concluded – a genetics course I attended at ETH Zurich a few years ago. His “ego” could be felt from the front to the back of the lecture hall (for a deep analysis of scientific misconduct due to scientists’ narcissism, please read Bruno Lemaitre’s book “An essay on science and narcissism” (3)). The main problem with these scientific behaviors is that “small cheating” is harder to detect. Even when this happens – still most of the times – this knowledge is not transformed in a publication because, to publish a rebuttal paper, disproving a previously published one, journals require scientists to build up a convincing story, with many supportive data. Disproving something in science is rather difficult and requires much more work than demonstrating that something is true. For this reason, scientists often keep this knowledge to themselves, leaving partially untrue discoveries out there.  

How are PIs funded?

PIs need money to run a laboratory: they have to pay the salaries of their scientists, the costs of the equipment, taxes, publication’s fees, etc. But where is this money coming from?

There are public and private granting agencies. Basically, a PI can submit a research proposal, where he or she describes the potential benefit of studying something specific. If the application was successful, they will then receive the funding. Granting agencies, in order to decide how to distribute their money, are often following a similar strategy as academic institutions do to hire their Professors. They often go through the academic curriculum and look for the journals in which the applicant has published their research throughout their career. The more publications in high-impact journals, the higher the chance of getting funded. Same old story.  

Summing up

Recapitulating what has been said so far: scientists become famous for their discoveries published in top-notch journals. Scientists pay journals for publishing their discoveries and in order to read about the discoveries of others. Scientists are chosen to become leaders of a laboratory group if they have published in renowned journals during their career. Similarly, when they are in charge of the finances of a laboratory group, they receive more funding when they have a “respectable” academic curriculum, meaning a history of high-impact publications. The publication system further discourages the publication of single observations, which could be of great use for the scientific community. It also discourages the publication of negative results. Instead, it indirectly encourages scientific misconduct, by creating a competitive and egocentric environment. All these elements, in turn, cause dramatic effects on worldwide scientific productivity, both in terms of quality and quantity. Further, they enhance scientific inequality between the developed and developing world. 

 

fig3_the scientific publishing lobbyFigure 3. An overview of the scientific publishing system: how journals maintain a profitable status quo. Subimages credits: Rami McMin, Freepik, Kiranshastry, Nikita Golubev, from www.flaticon.com 

Those gaining advantage from all of this are journals and only journals. They maintain a very profitable business, causing discontent and distress within the scientific community and ridiculing the unaware general public, who has trust in research.

In the next paragraph, we will understand how journals maintain the current publishing system in place.  

How do journals maintain this system?

There are two predominant ways for journals to maintain the system: rewarding and lobbying.

Rewarding: all the established and important Professors made their fame by publishing in journals. As everybody would do, they believe their achievements are the result of their efforts and intelligence. If they made it within this system, and they believe they deserved it, most of them would likely think the system works well enough. Even when important scientists speak out against journals, this isn’t enough. Among the many scientists, Randy Schekman – the 2013 Nobel Prize in Physiology or Medicine – in an article in ‘The Guardian’ accused the major journals of ruining science (check out Culturico’s interview with Randy Schekman

Lobbying: in order to maintain a thriving business, journals need to find a practical way to make somebody else happy about the status quo. The individuals profiting from journals’ commercial activities are those PIs who have become popular within the system and have been selected to become reviewing editors for a specific top-notch journal. Reviewing editors are established Professors that, while still performing research for their public academic institution, concomitantly “work” for journals in the reviewing process of papers. Among other advantages, they are able to decide which reviewers are selected for a specific manuscript, they are further able to influence the acceptance or rejection of a paper and they can also read and get inspired by unpublished papers. Being a reviewing editor of a top-notch journal is not only helpful for a PI (individualistically speaking) but is also very prestigious. Well known journals selectively pick their candidates, choosing among the most influential scientists in prominent institutions.  

For an example, check out the board of Science reviewing editors here. Because of the alphabetic order, the first one of the list is Adriano Aguzzi, a leading scientist in the field of prion diseases (neurodegenerative diseases such as the famous Mad Cow Disease), whose lab is located at the University Hospital in Zurich, Switzerland. In a recent talk given at the University of Zurich – Aguzzi – not only managed to discuss his unquestionable research results but also managed to repeatedly brag about his multiple publications in Nature, Cell and Science during the short presentation. This example provides evidence of how the top-notch journals managed to sell their brand to the most important scientists.   

Journals are therefore able, within this system, to influence the scientific community in order to maintain the status quo, which is advantageous to them.  

How do we challenge the system?

There are several ways to challenge the system, but it involves formulating a strategy to break apart the lobby of scientific journals. So far, there have been minor attempts to challenge specific issues raised by the current scientific publishing system: for instance, because of the mounting pressure within the scientific community, some low impact journals started to accept negative results for publication. Instead, Science Matters is a recently founded journal that publishes single experimental observations. Other journals, such as eLife, are fully “open access”, which means there are no subscription costs, although researchers are still required to pay in order to publish. More and more journals are becoming open access, thanks to the pressure of the scientific community. In particular, one major effort is made by an international consortium of research funders, which established an initiative called “Plan S”. Plan S is based on the idea that publicly funded research must be published only on open access journals. The consortium, supported by the major funding agencies of the world (see a list here), is currently putting top-notch journals under great pressure. Another effort to allow free and open access publications was made by Cornell University by founding ArXiv, an online platform where scientists can quickly upload their manuscript without peer-review. The system worked very well in Physics, and a similar – and also successful – attempt was made for natural science with BioRxiv. However, scientists still feel the need to publish in journals, limiting these platforms as tools to quickly communicate the results of a research. 

However, although important, all of these efforts remain insufficient.

The best way to interrupt the vicious circle is to act simultaneously on different levels. The best scenario is for leading scientists to exit the scientific community and join the international political community, who know nothing about science. Ideally, scientists working within international organizations such as the United Nations (UN) could promote the foundation of an international scientific body that regulates and legislates scientific issues. International bodies for instance exist to regulate the world economy, but no body exists to regulate science. In an ideal world, we could imagine the existence of an UN-based publishing online platform, free of charge. Research papers from all over the world would be published there, with several advantages:  

  1. No publishing fees.

  2. No readership costs.

  3. No need for scientific journals to exist.

  4. A single worldwide database instead of a multitude of individual journals.These points will lead to further positive outcomes:

  5. Reduced scientific inequality, allowing research labs in developing countries to make their voices heard,

  6. No need for individualistic competition in science: researchers could cooperate more with each other, within and among different research groups.

  7. No pressure to publish on top-notch journals, a disincentive to cheating. The focus would shift towards the quality of research.

  8. Eventually, all the previous points would lead to a faster, more solid, generation of knowledge.  

There are some flaws, though, in this idea. But there are solutions to these issues too.

Problem n.1: The peer-review system.

The peer-review system is generally anonymous, meaning that reviewing comments are not public, and the name of the reviewer is not released.  

Solution n.1: this model, although liked by many scientists, is rather antiquated. Indeed, companies such as TripAdvisor or Airbnb, among others, have introduced a rating system to review the quality of restaurants, hotels, etc (see Figure 4). People write reviews and give ratings with their public name. Keeping the reviewers’ names public allows transparency and increases the quality of the revisions. Similarly, an UN-based publishing online platform could make use of a rating and reviewing system that is open to everybody within the scientific community. Registered users are allowed to rate and comment on papers. The peer-review would therefore become a rather open and public process.  

Problem n.2: Competition.

Even with such a platform, science would remain highly competitive. The choice of the best candidates to become PIs based on their list of publications is currently the way to determine who is a better scientist.

Solution n.2: the solution to this issue is multifaceted. The quality of a research paper could be defined by two factors, once an international free platform for publications exists: the number of citations and the score received. The first factor is a decent approximation of the quality of a paper, once the journal bias is no longer present. The second is a direct assessment given by other scientists. These scores will also contribute to generate individual scores for scientists, thereby helping to rank scientists. As science does not follow a “democratic” system approach, perhaps individuals should not be given the same scoring “weight”, or importance. Why?  

Let’s imagine a Professor in Physics rating a paper in the field of Genetics. He or she won’t possess the same knowledge of a Professor working in the same field. Or, imagine a PhD student versus a Professor: we can make a similar assumption. A strong algorithm should be assigning individual scoring weights depending on several parameters, such as: the field of study of the rater, their position, their individual score (given by number of citations combined with the received ratings).  

 

fig4_the scientific publishing lobbyFigure 4. The Airbnb reviewing system

Would such a platform also solve other issues? Yes, and here is why.

  • Negative results and individual observations could be published without problems.

  • Scientists would be able to choose their individual style of communication, which won’t be the one imposed by a private business.

  • Bad research would receive bad ratings, and generally bad comments, with experimental evidence made up by single individual observations.

  • It would be easier to follow up on research projects. For instance, one could imagine the following fictional “scientific conversation” on the platform:
    Published paper (Research group 1) –> Professor X (Research Group 2) is unconvinced about something and asks publicly for clarifications –> The research group 1 responds publishing a single observation.
    Or: Published paper (Research group 1) –> Follow-up paper (Research Group 1) –> Follow-up paper (Research group 2)  

These scenarios would be of help to build more cooperation between research groups.

Finally, academic institutions and funding bodies would have to change their approach as well. Instead of taking decisions based on a list of journals in which a scientist has published, universities could actually read papers to make decisions, interview individual candidates with greater effort than today’s, perhaps trying to understand whether they would be good teachers too. In addition to creating a “UN-based online publishing platform”, there is an alternative entrance point to break the vicious circle: if top Universities agree to stop publishing in journals, by creating a common platform or publishing on their own, individual online website. Although this appears to be a simpler solution, it is not that easy, as lobbying journals have strong ties with important Professors within the most important institutions of the world.  

The best solution to eradicate the scientific publishing lobbying, therefore, seems to be the general community, and not the scientific community itself. Politicians (scientists aren’t however excluded) could be the best solution to improve science, generating a huge, incalculable, impact. With the advice of mindful scientists, they could push for the formation of an international scientific body that would promote a drastic shift in how the scientific publishing system works, for instance by creating – as suggested – a free online publishing platform. International law should definitely apply to science, as it seeks the progress of humanity as a whole.

 

Federico Germani

 References:

  1. Fleming, A., “On the antibacterial action of cultures of a Penicillium, with special reference to their use in the isolation of B. influenza”, Br J Exp Pathol, 1929.

  2. Kronick, D.A., “A history of scientific and technical periodicals: the origins and development of the scientific and technological press, 1665-1790”, Scarecrow Press, 1962.

  3. Lemaitre, B., “An essay on science and narcissism: how do high-ego personalities drive research in life sciences?”, 2015.

  4. Levecque, K. et al., “Work organization and mental health problems in PhD students”, Research Policy, 2017.

Received: 28.03.19, Ready: 25.04.19, Editors: Bhavna Karnani, Robert Ganley.



"¡Quemadlo con fuego!" - El uso de ChatGPT «polariza» a los revisores

Publicado en THE Times Higher Education https://www.timeshighereducation.com/news/corrupting-chatgpt-use-polarises-peer-reviewers   Quemadlo...