Publicado en The Conversation
https://theconversation.com/fake-papers-are-contaminating-the-worlds-scientific-literature-fueling-a-corrupt-industry-and-slowing-legitimate-lifesaving-medical-research-246224?utm_medium=email&utm_campaign=Daily%20Newsletter%20%20January%2029%202025%20-%203242333102%20-%20Subject%20line%20A&utm_content=Daily%20Newsletter%20%20January%2029%202025%20-%203242333102%20-%20Subject%20line%20A+CID_fbd3925e1e5bf0c18b4df973ece2e53b&utm_source=campaign_monitor_us&utm_term=industrialized%20the%20production%20of%20fake%20scientific%20papers
Los artículos falsos contaminan la literatura científica mundial, alimentan una industria corrupta y frenan la investigación médica legítima para salvar vidas
Publicado el 29 de enero de 2025
Extractos del artículo (realizado por Bol. SciELOMex)
En la última década, se ha industrializado la producción, venta y difusión de investigaciones académicas falsas, socavando la credibilidad de la literatura científica
Es extremadamente difícil determinar con exactitud la magnitud del problema: se han retirado unos 55.000 artículos académicos por diversos motivos, pero se calcula que circulan muchos más artículos falsos, posiblemente hasta varios cientos de miles.
Estas investigaciones falsas pueden confundir a los investigadores legítimos, que deben indagar entre densas ecuaciones, pruebas, imágenes y metodologías sólo para descubrir que son inventadas.
Pero incluso cuando se descubren los artículos falsos -generalmente por detectives aficionados en su tiempo libre-, las revistas académicas suelen tardar en retractarse, lo que aumenta el efecto pernicioso de la falsa investigación
El problema refleja una mercantilización mundial de la ciencia. Las universidades y las entidades que financian la investigación han utilizado durante mucho tiempo la publicación regular en revistas académicas como requisito para los ascensos y la seguridad laboral, dando lugar al mantra «publicar o perecer».
Los estafadores se han infiltrado en la industria editorial académica para dar prioridad a los beneficios sobre la academia.
Cada semana se publican en todo el mundo unos 119,000 artículos de revistas académicas y ponencias de congresos, es decir, más de 6 millones al año.
Los editores calculan que, en la mayoría de las revistas, alrededor del 2% de los artículos presentados -pero no necesariamente publicados- son probablemente falsos. Esta cifra podría ser mucho mayor en algunas publicaciones.
Ningún país es inmune a esta práctica, pero esta tendencia es especialmente acusada en las economías emergentes.
Como resultado, existe una economía subterránea para todo lo relacionado con las publicaciones académicas: se venden autores, citas e incluso editores de revistas académicas.
Este fraude es tan frecuente que tiene su propio nombre: fábricas de artículos.
El impacto de las “fábricas de artículos” en los editores de revistas es profundo, puesto que se corre el riesgo de publicar artículos faltos.
Importantes índices científicos pueden retirar de sus listas a las revistas que publiquen demasiados artículos comprometidos.
Aumenta la exigencia de que los editores legítimos se esfuercen por rastrear y poner en la lista negra a las revistas y autores que publican regularmente artículos falsos.
En ocasiones, los artículos falsos son poco más que frases encadenadas generadas por inteligencia artificial.
Se trata de un “asalto metastásico” a la ciencia
Estamos ante una crisis profundamente arraigada que ha llevado a investigadores y responsables políticos a reclamar una nueva forma de evaluar y recompensar a académicos y profesionales de la salud en todo el mundo.
Así como los sitios web tendenciosos disfrazados de información objetiva están acabando con el periodismo basado en pruebas y amenazando las elecciones, la ciencia falsa está acabando con la base de conocimientos sobre la que se asienta la sociedad moderna.
Por ej., el caso de la “molécula oscura” y del oncólogo Frank Cackowski (Univ. Estatal Wayne, Detroit) interesado para la generación de fármacos contra el cáncer de próstata. De acuerdo con un artículo publicado en la revista American Journal of Cancer Research despertó su interés cuando leyó que una molécula poco conocida llamada SNHG1 podría interactuar con las reacciones químicas que estaba explorando. Sus investigaciones corroboraron que, sorprendentemente, no había dicha relación.
Mientras tanto, Steven Zielske colega de Cackowski, encontró que en el artículo mencionado dos gráficos que mostraban resultados de líneas celulares diferentes eran idénticos; además de otro gráfico y una tabla que también contenían inexplicablemente datos idénticos.
Zielske describió sus dudas en un post anónimo en 2020 en PubPeer, un foro en línea donde muchos científicos informan de posibles malas prácticas en la investigación, y también se puso en contacto con el editor de la revista. Poco después, la revista retiró el artículo, citando «materiales y/o datos falsificados».
Finalmente, los dos investigadores descubrieron que SNHG1 sí desempeñaba un papel en el cáncer de próstata, pero no del modo que sugería el artículo sospechoso. Zielske revisó -unos 150 artículos, casi todos de hospitales chinos- sobre la relación SNHG1-cáncery y concluyó que «la mayoría» de ellos parecían falsos.
Zielske afirma que hoy en día aborda la investigación de forma diferente a como lo hacía antes: «No se puede leer un resumen y tener fe en él. Doy por hecho que todo está mal»
Por otra parte, sucede que los revisores de artículos ofrecen voluntariamente su tiempo y suelen suponer que la investigación es real y, por tanto, no buscan indicios de fraude. Además, algunas editoriales intentan seleccionar a los revisores que consideran más propensos a aceptar los trabajos, porque rechazar un manuscrito puede suponer perder miles de dólares en tasas de publicación.
Según Adam Day, que dirige Clear Skies (empresa londinense que desarrolla métodos basados en datos para ayudar a detectar artículos falsificados y revistas académicas): «Incluso los revisores buenos y honestos se han vuelto apáticos» debido al “volumen de investigaciones deficientes que llegan a través del sistema”, y añadió «Cualquier editor puede contar que ha visto informes en los que es obvio que el revisor no ha leído el artículo».
Para Cackowski «La ciencia ya es bastante difícil si la gente es sincera e intenta hacer un trabajo de verdad», por lo que «es realmente frustrante perder el tiempo basándote en las publicaciones fraudulentas de alguien». Esto implica que las publicaciones falsas están ralentizando «la investigación legítima que en el futuro va a repercutir en la atención al paciente y el desarrollo de fármacos».
Un colaborador de Retraction Watch (sitio web que informa sobre retractaciones de artículos científicos y temas relacionados), y dos informáticos de la Université Toulouse III-Paul Sabatier y la Université Grenoble Alpes de Francia especializados en detectar publicaciones falsas- dedicaron 6 meses investigando las fábricas de artículos.
Guillaume Cabanac, coautor del estudio, desarrolló el Detector de artículos problemáticos, que filtra 130 millones de artículos académicos nuevos y antiguos cada semana en busca de nueve tipos de pistas que indiquen que un artículo podría ser falso o contener errores.
No está claro cuándo empezaron a operar a escala las fábricas de artículos. Según la base de datos Retraction Watch, que contiene información sobre decenas de miles de retractaciones, el primer artículo retractado por la presunta implicación de estas agencias se publicó en 2004.
Según los expertos, es probable que el número sea significativo y vaya en aumento. Una fábrica de artículos de Letonia vinculada a Rusia, por ejemplo, afirma en su sitio web haber publicado «más de 12,650 artículos» desde 2012
Un análisis de 53,000 artículos enviados a seis editoriales -aunque no necesariamente publicados- reveló que la proporción de artículos sospechosos oscilaba entre el 2% y el 46% en todas las revistas.
La editorial estadounidense Wiley, que ha retractado más de 11,300 artículos comprometidos y cerrado 19 revistas muy afectadas de su antigua división Hindawi, declaró recientemente que su nueva herramienta de detección de «fábrica de artículos» detecta hasta 1 de cada 7 envíos.
Day, de Clear Skies, calcula que hasta el 2% de los varios millones de trabajos científicos publicados en 2022 fueron falsificados.
Algunos campos son más problemáticos que otros: la cifra se acerca al 3% en biología y medicina, y en algunos subcampos, como el cáncer, puede ser mucho mayor, según Day.
Según Sabina Alam, directora de Ética e Integridad Editorial de Taylor & Francis, una importante editorial académica, en 2019, ninguno de los 175 casos de ética que los editores elevaron a su equipo estaba relacionado con las fábricas de artículos, dijo Alam. En 2023, «tuvimos casi 4.000 casos», dijo. «Y la mitad de ellos eran fábricas de artículos».
Jennifer Byrne (científica australiana que dirige un grupo de investigación para mejorar la fiabilidad de la investigación médica) presentó un testimonio para una audiencia del Comité de Ciencia, Espacio y Tecnología de la Cámara de Representantes de EE. UU. en julio de 2022: señaló que 700, es decir, casi el 6%, de los 12,000 trabajos de investigación sobre el cáncer examinados tenían errores que podían indicar la participación de una fábrica de artículos.
Continua Byrne: «La amenaza de las fábricas de artículos para la publicación científica y la integridad no tiene parangón en mis 30 años de carrera científica ..... Sólo en el campo de la ciencia genética humana, el número de artículos potencialmente fraudulentos podría superar los 100.000 originales»
Para Byrne: en un área de la investigación genética -el estudio del ARN no codificante en distintos tipos de cáncer- «estamos hablando de que más del 50% de los artículos publicados son de fábrica de artículos». «Es como nadar en la basura».
En 2022, Byrne y sus colegas descubrieron que la investigación genética sospechosa, a pesar de no tener un impacto inmediato en la atención al paciente, sigue informando el trabajo de otros científicos, incluidos los que dirigen ensayos clínicos. Sin embargo, los editores suelen tardar en retractarse de los artículos contaminados, incluso cuando se les advierte de signos evidentes de fraude. Descubrieron que el 97% de los 712 artículos de investigación genética problemáticos identificados permanecían sin corregir en la bibliografía.
Jillian Goldfarb (Univ de Cornell y antigua editora de la revista Fuel de Elsevier) lamenta la forma en que la editorial ha gestionado la amenaza de las fábricas de artículos. En su relato comenta que «Evaluaba más de 50 trabajos al día» y aunque disponía de tecnología para detectar plagios, envíos duplicados y cambios de autor sospechosos, ésto no es suficiente ya que no es razonable pensar que un editor, para quien éste no suele ser su trabajo a tiempo completo, pueda detectar estas cosas leyendo 50 artículos a la vez». La escasez de tiempo, más la presión de los editores para aumentar las tasas de presentación y las citas y disminuir el tiempo de revisión, pone a los editores en una situación imposible.»
Goldfarb dimitió de su cargo de editora de Fuel en octubre de 2023. Posteriormente declaró que Elsevier no había tomado medidas frente a docenas de artículos potenciales de fábricas de artículos que ella había marcado. Además, Elsevier contrató a un editor principal que al parecer «se dedicaba a la fabricación de artículos y citas». Goldfarb concluyó: «Esto me dice a mí, a nuestra comunidad y al público, que valoran la cantidad de artículos y los beneficios por encima de la ciencia».
João de Deus Barreto Segundo, director editorial de seis revistas publicadas por la Escuela de Medicina y Salud Pública de Bahía, en Salvador (Brasil) recibió propuestas de negocio procedentes de editoriales sospechosas a la caza de nuevas revistas que añadir a su cartera.
La Facultad de Medicina y Salud Pública de Bahía no cobra a los autores ni a los lectores, pero la empresa de Barreto Segundo tiene una empresa que genera cerca de 30,000 millones de dólares al año con márgenes de beneficio de hasta el 40%.
Otras propuestas procedían de académicos que sugerían tratos sospechosos u ofrecían sobornos para publicar sus artículos. Uno de estos mensajes (feb 2024) provino de Artur Borcuch, un profesor adjunto de economía de Polonia, quien se presentó como director de una empresa que trabajaba con universidades europeas y planteó las siguientes preguntas: «¿Estaría interesado en colaborar en la publicación de artículos científicos de científicos que colaboran conmigo?» y «Luego discutiremos los posibles detalles y las condiciones financieras».
Ahmed Torad (Univ.Kafr El Sheikh, Egipto y redactor jefe de la revista Egyptian Journal of Physiotherapy) pidió una comisión del 30% por cada artículo que pasaba a la editorial brasileña. «Esta comisión se calculará en función de las tasas de publicación generadas por los manuscritos que presenté», escribió Torad, señalando que se especializaba “en poner en contacto a investigadores y autores con revistas adecuadas para su publicación”.
Ahmed Alkhayyat (director del Centro de Investigación Científica de la Universidad Islámica, en Nayaf, Irak) fue más sincero ante el editor brasileño: «Como incentivo, estoy dispuesto a ofrecer una subvención de 500 dólares por cada artículo aceptado que se envíe a su estimada revista»
El profesor polaco Borcuch, por su parte, negó cualquier intención impropia: «Mi papel es mediar en los aspectos técnicos y de procedimiento de la publicación de un artículo», añadiendo que, cuando trabajaba con varios científicos, «solicitaba un descuento a la oficina editorial en su nombre.»
Ni los profesores Borcuch y Alkhayyat se percataron que la Facultad de Medicina y Salud Pública de Bahía no cobra tarifas a los autores para publicar. Y ambos negaron cualquier intención impropia en su propuesta al editor. Alkhayyat dijo que había habido un «malentendido» por parte del editor, explicando que el pago que ofreció estaba destinado a cubrir los supuestos gastos de procesamiento del artículo. «Algunas revistas piden dinero. Así que es normal», dijo Alkhayyat.
El profesor egipcio Torad explicó que había enviado su oferta de obtener artículos a cambio de una comisión a unas 280 revistas, pero que no había obligado a nadie a aceptar los manuscritos. Algunas se mostraron reticentes a su propuesta, a pesar de que habitualmente cobran a los autores miles de dólares por publicar. Sugirió que la comunidad científica no se sentía cómoda admitiendo que la publicación académica se ha convertido en un negocio como cualquier otro, aunque sea «obvio para muchos científicos».
Todas estas indeseables propuestas llegaron al editor brasileño Barreto Segundo poco después de que The Journal of Physiotherapy Research fuera indexada en Scopus, una base de datos de resúmenes y citas propiedad de la editorial Elsevier.
Web of Science de Clarivate y Scopus de Elsevier se ha convertido en un importante sello de calidad para las publicaciones académicas en todo el mundo. Los artículos de las revistas indexadas son una fuente de ingresos para sus autores: Ayudan a asegurar puestos de trabajo, ascensos, financiación y, en algunos países, incluso desencadenan recompensas en metálico. Para académicos o médicos de países más pobres, pueden ser un billete de entrada al norte global.
Tomando como ejemplo Egipto: las universidades suelen pagar a sus empleados grandes sumas por publicaciones internacionales, en función del factor de impacto de la revista. Las normativas nacionales contienen una estructura de incentivos similar: Para obtener el rango de profesor titular, por ejemplo, los candidatos deben tener al menos cinco publicaciones en dos años, según el Consejo Superior de Universidades de Egipto. Los estudios en revistas indexadas en Scopus o Web of Science no sólo reciben puntos extra, sino que también están exentos de mayor escrutinio cuando se evalúa a los candidatos. Cuanto mayor es el factor de impacto de una publicación, más puntos obtienen los estudios.
Ante la excesiva atención a las métricas, es habitual que los investigadores egipcios hagan chapuzas, según un médico de El Cairo que pidió el anonimato por temor a represalias.
A menudo se cede la autoría a colegas que luego devuelven el favor, o se crean estudios de la nada. A veces se escoge un artículo legítimo de la bibliografía y se cambian detalles clave como el tipo de enfermedad o cirugía y se modifican ligeramente las cifras, explicó la fuente.
Otro ejemplo es la ivermectina, un fármaco utilizado para tratar parásitos en animales y seres humanos: cuando algunos estudios demostraron que era eficaz contra el COVID-19, la ivermectina fue aclamada como un «medicamento milagroso» al principio de la pandemia. Según los Centros para el Control y la Prevención de Enfermedades, un hombre pasó nueve días en el hospital tras ingerir una formulación inyectable del fármaco destinada al ganado. Resultó que casi todas las investigaciones que mostraban un efecto positivo del COVID-19 tenían indicios de falsedad, según informaron la BBC y otros medios, incluido un estudio egipcio ahora retirado.
La mala conducta en la investigación no se limita a las economías emergentes, ya que recientemente ha acabado con presidentes de universidades y científicos de alto nivel en organismos gubernamentales de Estados Unidos.
En Noruega, por ejemplo, el gobierno asigna fondos a institutos de investigación, hospitales y universidades en función de cuántos trabajos académicos publican los empleados y en qué revistas. El país ha decidido poner fin parcialmente a esta práctica a partir de 2025.
En el Sur global, el edicto de publicar o perecer choca con infraestructuras de investigación y sistemas educativos subdesarrollados, lo que deja a los científicos en un aprieto.
Ocurre entonces que, por ejemplo, para obtener un doctorado, un médico de El Cairo que solicitó el anonimato realizó un ensayo clínico completo sin ayuda de nadie: desde la compra de la medicación del estudio hasta la asignación aleatoria de los pacientes, pasando por la recopilación y el análisis de los datos y el pago de las tasas de procesamiento de los artículos. En los países más ricos, equipos enteros trabajan en este tipo de estudios, y la factura asciende fácilmente a cientos de miles de dólares.
En el “Sur Global”: «Aquí la investigación es todo un reto», afirmó dicho médico. Por eso los científicos «intentan manipular y encontrar formas más fáciles de hacer el trabajo».
Por su parte, las instituciones también manipulan el sistema con vistas a los rankings internacionales.
En 2011, la revista Science describió cómo se ofrecían cuantiosos pagos a investigadores prolíficos de Estados Unidos y Europa por incluir universidades saudíes como afiliadas secundarias en sus artículos. Y en 2023, se destapó una estratagema de autocitación masiva por parte de una facultad de Odontología de primer nivel en la India que obligaba a los estudiantes universitarios a publicar artículos en los que hacían referencia al trabajo de la facultad.
Según el sociólogo científico canadiense Yves Gingras (Univ de Quebec), la introducción en el mundo académico de métricas basadas en el rendimiento se remonta a la Nueva Gestión Pública, un movimiento que se extendió por todo el mundo occidental en la década de 1980. Cuando las universidades y las instituciones públicas adoptaron la gestión empresarial, los artículos científicos se convirtieron en «unidades contables» utilizadas para evaluar y recompensar la productividad científica, en lugar de «unidades de conocimiento» que hacen avanzar nuestra comprensión del mundo que nos rodea, escribió Gingras.
Esta transformación llevó a muchos investigadores a competir en cifras en lugar de en contenido, lo que hizo que las métricas de publicación no sirvieran para medir las proezas académicas.
En este contexto ocurren aberraciones como las del microbiólogo francés Didier Raoult, que cuenta ahora con más de una docena de retractaciones a su nombre y que tiene un índice h -una medida que combina el número de publicaciones y de citas- que duplica al de Albert Einstein, «prueba de que el índice es absurdo», dijo Gingras.
Se ha producido una especie de inflación científica, o «burbuja cienciométrica», en la que cada nueva publicación representa un incremento cada vez menor de los conocimientos.
A decir de Gingras: «Publicamos artículos cada vez más superficiales, artículos que hay que corregir y empujamos a la gente a cometer fraudes»
Gingras, sociólogo canadiense, es partidario de dar a los científicos el tiempo que necesitan para producir trabajos que importen, en lugar de un torrente efusivo de publicaciones. Es uno de los firmantes del Manifiesto por una Ciencia Lenta: «Una vez que se consiga una ciencia lenta, puedo predecir que el número de correcciones, el número de retractaciones, descenderá», afirma.
Gingras es partidario de dar a los científicos el tiempo que necesitan para producir trabajos que importen, en lugar de un torrente efusivo de publicaciones.
Gingras es uno de los firmantes del Manifiesto por una Ciencia Lenta: «Una vez que se consiga una ciencia lenta, puedo predecir que el número de correcciones, el número de retractaciones, descenderá», afirma.
En términos de perspectivas profesionales de los académicos, el valor medio de una publicación ha caído en picada, lo que ha provocado un aumento del número de autores hiperprolíficos.
Uno de los casos más notorios es el del químico español Rafael Luque, que en 2023 habría publicado un estudio cada 37 horas.
En 2024, Landon Halloran (geocientífico, Univ de Neuchâtel, Suiza), recibió una inusual solicitud de trabajo para una vacante en su laboratorio por parte de un investigador con un doctorado en China, quien a sus 31 años contaba con 160 publicaciones en revistas indexadas en Scopus, 62 de ellas sólo en 2022, el mismo año en que obtuvo su doctorado.
La editorial Taylor & Francis reaccionó con mayor atención al problema a partir de una investigación llevada a cabo en 2020 en una fábrica de artículos china por la detective Elisabeth Bik y tres de sus colegas, que se hacen llamar Smut Clyde, Morty y Tiger BB8. Con 76 artículos comprometidos, la revista Artificial Cells, Nanomedicine, and Biotechnology, con sede en el Reino Unido, fue la más afectada.
Este caso «Abrió un campo de minas», ya que «Fue la primera vez que nos dimos cuenta de que, esencialmente, se estaban utilizando imágenes de stock para representar experimentos».
En una revista de Taylor & Francis, por ejemplo, se identificaron casi 1,000 manuscritos que tenían todas las marcas de proceder de una fábrica de artículos.
Verificadores de fraudes: Ha surgido una pequeña industria de startups tecnológicas para detectar posibles fraudes.
Por ejemplo, el sitio web Argos (lanzado en septiembre de 2024) permite a los autores comprobar si los nuevos colaboradores están rastreados por retractaciones o problemas de mala conducta. Según la revista Nature, ha marcado decenas de miles de artículos de «alto riesgo».
La empresa Morressier ofrece herramientas de integridad que abarcan todo el ciclo de vida de la investigación
Otras herramientas de comprobación de documentos son Signals y Papermill Alarm.
Pero los defraudadores no se han quedado de brazos cruzados. En 2022, cuando Clear Skies lanzó Papermill Alarm, el primer académico que preguntó por la nueva herramienta fue una fábrica de artículos, quien quería tener acceso para poder comprobar sus trabajos antes de enviarlos a las editoriales.
Según datos de Nature: la tasa de retractación se triplicó de 2012 a 2022 hasta acercarse al 0,02%, o alrededor de 1 de cada 5.000 artículos. Luego casi se duplicó en 2023, en gran parte debido a la debacle de Hindawi de Wiley.
La edición comercial actual es parte del problema. Por un lado, la limpieza de la literatura es una empresa vasta y costosa sin ningún beneficio financiero directo y las revistas no cobran por rechazar artículos.
A decir de Bodo Stern (ex director de la revista Cell y jefe de Iniciativas Estratégicas del Instituto Médico Howard Hughes) a las revistas «Les pagamos por aceptar artículos», por lo que «¿Qué crees que van a hacer las revistas? Van a aceptar artículos».
Continua Stern: existen más de 50.000 revistas en el mercado y aunque algunas se esfuercen por hacer las cosas bien, los artículos malos acabarán encontrando un sitio para publicarse. «Ese sistema no puede funcionar como mecanismo de control de calidad», afirma. «Tenemos tantas revistas que todo puede publicarse».
En opinión de Stern: la revisión por pares, por su parte, «debería reconocerse como un verdadero producto académico, al igual que el artículo original, porque los autores del artículo y los revisores utilizan las mismas habilidades». Además, las revistas deberían hacer públicos todos los informes de revisión por pares, incluso de los manuscritos que rechazan. «Cuando realizan un control de calidad, no pueden limitarse a rechazar el artículo y luego dejar que se publique en otro sitio», dijo Stern. «Ese no es un buen servicio».
Contra la bibliometría: «Necesitamos menos investigación, mejor investigación y que la investigación se haga por las razones correctas», escribió el difunto estadístico Douglas G. Altman en un muy citado editorial de 1994. En otras palabras: «Abandonar el uso del número de publicaciones como medida de la capacidad sería un comienzo».
Declaración de San Francisco sobre la Evaluación de la Investigación (DORA, 2013): desaconseja el uso del factor de impacto de las revistas y otras medidas como indicadores de calidad. Esta declaración ha sido firmada desde entonces por más de 25,000 personas y organizaciones de 165 países.
Sin embargo, las métricas siguen utilizándose ampliamente en la actualidad, y los científicos afirman que existe una nueva sensación de urgencia.
Stern y sus colegas han intentado introducir mejoras en su institución como las siguientes: quienes desean renovar su contrato de siete años se les exige que escriban un breve párrafo en el que describan la importancia de sus principales resultados. Desde finales de 2023, también se les ha pedido que eliminen los nombres de las revistas de sus solicitudes.
Es necesario desviar la atención de las cómodas métricas de rendimiento tanto en las instituciones como por parte de los financiadores gubernamentales.
En Australia, por ejemplo, el Consejo Nacional de Salud e Investigación Médica puso en marcha en 2022 la política «top 10 in 10», cuyo objetivo es, en parte, «valorar la calidad de la investigación más que la cantidad de publicaciones». De este modo, en lugar de proporcionar toda su bibliografía, la agencia, que evalúa miles de solicitudes de subvención cada año, solicitó a los investigadores que enumeraran un máximo de 10 publicaciones de la última década y explicaran la contribución que cada una de ellas había hecho a la ciencia. Según un informe de evaluación de abril de 2024, cerca de tres cuartas partes de los revisores de subvenciones afirmaron que la nueva política les permitía concentrarse más en la calidad de la investigación que en la cantidad. Y más de la mitad afirmaron que redujo el tiempo que dedicaban a cada solicitud.
Autores
Frederik Joelving
Redactor colaborador, Retraction Watch
Cyril Labbé
Profesor de Informática, Université Grenoble Alpes (UGA)
Guillaume Cabanac
Profesor de Informática, Institut de Recherche en Informatique de Toulouse
En la última década, entidades comerciales furtivas de todo el mundo han industrializado la producción, venta y difusión de investigaciones académicas falsas, socavando la literatura en la que todos, desde médicos a ingenieros, confían para tomar decisiones sobre la vida humana.
Resulta extremadamente difícil determinar con exactitud la magnitud del problema. Hasta la fecha se han retirado unos 55.000 artículos académicos por diversos motivos, pero los científicos y las empresas que analizan la literatura científica en busca de indicios de fraude calculan que circulan muchos más artículos falsos, posiblemente hasta varios cientos de miles. Estas investigaciones falsas pueden confundir a los investigadores legítimos, que deben vadear densas ecuaciones, pruebas, imágenes y metodologías sólo para descubrir que son inventadas.
Incluso cuando se descubren los artículos falsos -generalmente por detectives aficionados en su tiempo libre-, las revistas académicas suelen tardar en retractarse, lo que permite que los artículos manchen lo que muchos consideran sacrosanto: la vasta biblioteca mundial de trabajos académicos que introducen nuevas ideas, revisan otras investigaciones y discuten hallazgos.
Estos artículos falsos están frenando una investigación que ha ayudado a millones de personas con medicamentos y terapias que salvan vidas, desde el cáncer hasta el COVID-19. Los datos de los analistas muestran que los campos relacionados con el cáncer y la medicina están especialmente afectados, mientras que áreas como la filosofía y el arte se ven menos afectadas. Algunos científicos han abandonado el trabajo de su vida porque no pueden seguir el ritmo ante la cantidad de documentos falsos que deben rechazar.
El problema refleja una mercantilización mundial de la ciencia. Las universidades y las entidades que financian la investigación han utilizado durante mucho tiempo la publicación regular en revistas académicas como requisito para los ascensos y la seguridad laboral, dando lugar al mantra «publicar o perecer».
Pero ahora, los estafadores se han infiltrado en la industria editorial académica para dar prioridad a los beneficios sobre la academia. Equipados con destreza tecnológica, agilidad y vastas redes de investigadores corruptos, están produciendo artículos sobre todo tipo de temas, desde oscuros genes hasta la inteligencia artificial en medicina.
Estos artículos se incorporan a la biblioteca mundial de la investigación más rápido de lo que pueden ser eliminados. Cada semana se publican en todo el mundo unos 119.000 artículos de revistas académicas y ponencias de congresos, es decir, más de 6 millones al año. Los editores calculan que, en la mayoría de las revistas, alrededor del 2% de los artículos presentados -pero no necesariamente publicados- son probablemente falsos, aunque esta cifra puede ser mucho mayor en algunas publicaciones.
Aunque ningún país es inmune a esta práctica, es especialmente acusada en las economías emergentes, donde los recursos para hacer ciencia de buena fe son limitados y donde los gobiernos, deseosos de competir a escala mundial, ofrecen incentivos especialmente fuertes para «publicar o perecer».
Como resultado, existe una economía sumergida en línea para todo lo relacionado con las publicaciones académicas. Se venden autores, citas e incluso editores de revistas académicas. Este fraude es tan frecuente que tiene su propio nombre: fábricas de artículos, una expresión que recuerda a las «fábricas de trabajos trimestrales», en las que los estudiantes hacen trampas consiguiendo que otra persona escriba un trabajo de clase por ellos.
El impacto en los editores es profundo. En los casos más sonados, los artículos falsos pueden perjudicar los resultados de una revista. Importantes índices científicos -bases de datos de publicaciones académicas en las que confían muchos investigadores para realizar su trabajo- pueden retirar de sus listas a las revistas que publiquen demasiados artículos comprometidos. Cada vez se critica más que los editores legítimos podrían hacer más por rastrear y poner en la lista negra a las revistas y autores que publican regularmente artículos falsos que, a veces, son poco más que frases encadenadas generadas por inteligencia artificial.
Para comprender mejor el alcance, las ramificaciones y las posibles soluciones de este asalto metastásico a la ciencia, nosotros -un redactor colaborador de Retraction Watch, un sitio web que informa sobre retractaciones de artículos científicos y temas relacionados, y dos informáticos de la Université Toulouse III-Paul Sabatier y la Université Grenoble Alpes de Francia especializados en detectar publicaciones falsas- pasamos seis meses investigando las fábricas de artículos.
Algunos de nosotros, en distintos momentos, nos dedicamos a rastrear sitios web y redes sociales, entrevistando a editores, redactores, expertos en integridad de la investigación, científicos, médicos, sociólogos y sabuesos científicos dedicados a la tarea de Sísifo de limpiar la bibliografía. Algunos de nosotros también examinamos artículos científicos en busca de indicios de falsedad.
Buscador de artículos problemáticos: La búsqueda del fraude en la literatura científica
El resultado es una crisis profundamente arraigada que ha llevado a muchos investigadores y responsables políticos a reclamar una nueva forma de evaluar y recompensar a académicos y profesionales de la salud en todo el mundo.
Al igual que los sitios web tendenciosos disfrazados de información objetiva están acabando con el periodismo basado en pruebas y amenazando las elecciones, la ciencia falsa está acabando con la base de conocimientos sobre la que se asienta la sociedad moderna.
Como parte de nuestro trabajo de detección de estas publicaciones falsas, Guillaume Cabanac, coautor del estudio, desarrolló el Detector de artículos problemáticos, que filtra 130 millones de artículos académicos nuevos y antiguos cada semana en busca de nueve tipos de pistas que indiquen que un artículo podría ser falso o contener errores. Un indicio clave es una frase adulterada, una redacción incómoda generada por un programa informático que sustituye términos científicos comunes por sinónimos para evitar el plagio directo de un artículo legítimo.
Detector de artículos problemáticos: La búsqueda del fraude en la literatura científica
Una molécula oscura
Frank Cackowski, de la Universidad Estatal Wayne de Detroit, estaba confudido.
El oncólogo estaba estudiando una secuencia de reacciones químicas en las células para ver si podían ser un objetivo para fármacos contra el cáncer de próstata. Un artículo de 2018 en la revista American Journal of Cancer Research despertó su interés cuando leyó que una molécula poco conocida llamada SNHG1 podría interactuar con las reacciones químicas que estaba explorando. Él y su colega Steven Zielske, investigador de Wayne State, comenzaron una serie de experimentos para aprender más sobre el vínculo. Sorprendentemente, descubrieron que no había ninguna relación.
Mientras tanto, Zielske había empezado a sospechar del artículo. Dos gráficos que mostraban resultados de líneas celulares diferentes eran idénticos, observó, lo que «sería como verter agua en dos vasos con los ojos cerrados y que los niveles salieran exactamente iguales». Otro gráfico y una tabla del artículo también contenían inexplicablemente datos idénticos.
Zielske describió sus dudas en un post anónimo en 2020 en PubPeer, un foro en línea donde muchos científicos informan de posibles malas prácticas en la investigación, y también se puso en contacto con el editor de la revista. Poco después, la revista retiró el artículo, citando «materiales y/o datos falsificados».
«La ciencia ya es bastante difícil si la gente es sincera e intenta hacer un trabajo de verdad», afirma Cackowski, que también trabaja en el Instituto Oncológico Karmanos de Michigan. «Y es realmente frustrante perder el tiempo basándote en las publicaciones fraudulentas de alguien».
Le preocupa que las publicaciones falsas estén ralentizando «la investigación legítima que en el futuro va a repercutir en la atención al paciente y el desarrollo de fármacos».
Al final, los dos investigadores descubrieron que SNHG1 sí parecía desempeñar un papel en el cáncer de próstata, aunque no del modo que sugería el artículo sospechoso. Pero era un tema difícil de estudiar. Zielske revisó todos los estudios sobre SNHG1 y cáncer -unos 150 artículos, casi todos de hospitales chinos- y concluyó que «la mayoría» de ellos parecían falsos. Según Zielske, algunos informaban del uso de reactivos experimentales conocidos como cebadores que eran «un galimatías», por ejemplo, o se dirigían a un gen distinto del que decía el estudio. Zielske se puso en contacto con varias revistas, pero apenas recibió respuesta. «Dejé de hacer el seguimiento».
Los numerosos artículos cuestionables también dificultaron la obtención de financiación, según Zielske. La primera vez que presentó una solicitud de subvención para estudiar el SNHG1, fue rechazada, y uno de los revisores dijo que «el campo estaba abarrotado», recordó Zielske. Al año siguiente, explicó en su solicitud que la mayor parte de la bibliografía procedía de fábricas de artículos. Consiguió la subvención.
Zielske afirma que hoy en día aborda la investigación de forma diferente a como lo hacía antes: «No se puede leer un resumen y tener fe en él. Doy por hecho que todo está mal».
Las revistas académicas legítimas evalúan los artículos antes de publicarlos, haciendo que otros investigadores del campo los lean detenidamente. Este proceso de revisión por pares está diseñado para evitar que se difundan investigaciones defectuosas, pero dista mucho de ser perfecto.
Los revisores ofrecen voluntariamente su tiempo, suelen suponer que la investigación es real y, por tanto, no buscan indicios de fraude. Además, algunas editoriales intentan seleccionar a los revisores que consideran más propensos a aceptar los trabajos, porque rechazar un manuscrito puede suponer perder miles de dólares en tasas de publicación.
«Incluso los revisores buenos y honestos se han vuelto apáticos» debido al “volumen de investigaciones deficientes que llegan a través del sistema”, dijo Adam Day, que dirige Clear Skies, una empresa de Londres que desarrolla métodos basados en datos para ayudar a detectar artículos falsificados y revistas académicas. «Cualquier editor puede contar que ha visto informes en los que es obvio que el revisor no ha leído el artículo».
Con la IA, no tienen por qué hacerlo: Nuevas investigaciones muestran que muchas revisiones las escriben ahora ChatGPT y herramientas similares.
Para acelerar la publicación de los trabajos de los demás, algunos científicos corruptos forman redes de revisión por pares. Las fábricas de artículos pueden incluso crear falsos revisores que se hacen pasar por científicos reales para asegurarse de que sus manuscritos llegan a la publicación. Otros sobornan a editores o colocan agentes en los consejos editoriales de las revistas.
María de los Ángeles Oviedo-García, catedrática de Marketing de la Universidad de Sevilla (España), dedica su tiempo libre a buscar revisiones por pares sospechosas de todas las áreas de la ciencia, cientos de las cuales ha marcado en PubPeer. Algunas de estas revisiones tienen la extensión de un tuit, otras piden a los autores que citen el trabajo del revisor aunque no tenga nada que ver con la ciencia en cuestión, y muchas se parecen mucho a otras revisiones por pares de estudios muy diferentes, lo que, en su opinión, evidencia lo que ella llama «fábricas de revisiones».

Comentario en PubPeer de María de los Ángeles Oviedo-García señalando que un informe de revisión por pares es muy similar a otros dos informes. También señala que los autores y las citas de los tres informes son anónimos o se trata de la misma persona, lo que indica que se trata de documentos falsos. Captura de pantalla de The Conversation, CC BY-ND
«Una de las luchas más exigentes para mí es mantener la fe en la ciencia», dice Oviedo-García, que dice a sus estudiantes que busquen artículos en PubPeer antes de confiar demasiado en ellos. Su investigación se ha ralentizado, añade, porque ahora se siente obligada a buscar informes de revisión por pares de los estudios que utiliza en su trabajo. A menudo no los hay, porque «muy pocas revistas publican esos informes de revisión», dice Oviedo-García.
Un problema “absolutamente enorme”
No está claro cuándo empezaron a operar a escala las fábricas de artículos. Según la base de datos Retraction Watch, que contiene información sobre decenas de miles de retractaciones, el primer artículo retractado por la presunta implicación de estas agencias se publicó en 2004. (La base de datos está gestionada por The Center for Scientific Integrity, la organización sin ánimo de lucro matriz de Retraction Watch). Tampoco está claro cuántos artículos de baja calidad, plagiados o inventados han generado las fábricas de papel.
Pero, según los expertos, es probable que el número sea significativo y vaya en aumento. Una fábrica de artículos de Letonia vinculada a Rusia, por ejemplo, afirma en su sitio web haber publicado «más de 12.650 artículos» desde 2012.
Un análisis de 53.000 artículos enviados a seis editoriales -pero no necesariamente publicados- reveló que la proporción de artículos sospechosos oscilaba entre el 2% y el 46% en todas las revistas. Y la editorial estadounidense Wiley, que ha retractado más de 11.300 artículos comprometidos y cerrado 19 revistas muy afectadas de su antigua división Hindawi, declaró recientemente que su nueva herramienta de detección de «fábrica de artículos» detecta hasta 1 de cada 7 envíos.

Anuncio en Facebook de una fábrica de artículos india que vende la coautoría de un artículo. Captura de pantalla de The Conversation
Day, de Clear Skies, calcula que hasta el 2% de los varios millones de trabajos científicos publicados en 2022 fueron falsificados. Algunos campos son más problemáticos que otros. La cifra se acerca más al 3% en biología y medicina, y en algunos subcampos, como el cáncer, puede ser mucho mayor, según Day. A pesar de la mayor concienciación actual, «no veo ningún cambio significativo en la tendencia», afirma. Con la mejora de los métodos de detección, «cualquier estimación que haga ahora será más alta».
El problema de las fábricas de artículos es «absolutamente enorme», dijo Sabina Alam, directora de Ética e Integridad Editorial de Taylor & Francis, una importante editorial académica. En 2019, ninguno de los 175 casos de ética que los editores elevaron a su equipo estaba relacionado con las fábricas de artículos, dijo Alam. Los casos de ética incluyen presentaciones y trabajos ya publicados. En 2023, «tuvimos casi 4.000 casos», dijo. «Y la mitad de ellos eran fábricas de artículos».
Jennifer Byrne, una científica australiana que ahora dirige un grupo de investigación para mejorar la fiabilidad de la investigación médica, presentó un testimonio para una audiencia del Comité de Ciencia, Espacio y Tecnología de la Cámara de Representantes de EE. UU. en julio de 2022. Señaló que 700, es decir, casi el 6%, de los 12.000 trabajos de investigación sobre el cáncer examinados tenían errores que podían indicar la participación de una fábrica de artículos. Byrne cerró su laboratorio de investigación del cáncer en 2017 porque los genes sobre los que había pasado dos décadas investigando y escribiendo se convirtieron en el blanco de un enorme número de artículos falsos. Un científico deshonesto que falsifica datos es una cosa, pero una fábrica de artículos podría producir docenas de estudios falsos en el tiempo que su equipo tardaba en publicar uno legítimo.
«La amenaza de las fábricas de artículos para la publicación científica y la integridad no tiene parangón en mis 30 años de carrera científica ..... Sólo en el campo de la ciencia genética humana, el número de artículos potencialmente fraudulentos podría superar los 100.000 originales», escribió a los legisladores, y añadió: “Esta estimación puede parecer chocante, pero es probable que sea conservadora”.
En un área de la investigación genética -el estudio del ARN no codificante en distintos tipos de cáncer- «estamos hablando de que más del 50% de los artículos publicados son de fábrica de artículos», dijo Byrne. «Es como nadar en la basura».
En 2022, Byrne y sus colegas, entre ellos dos de nosotros, descubrieron que la investigación genética sospechosa, a pesar de no tener un impacto inmediato en la atención al paciente, sigue informando el trabajo de otros científicos, incluidos los que dirigen ensayos clínicos. Sin embargo, los editores suelen tardar en retractarse de los artículos contaminados, incluso cuando se les advierte de signos evidentes de fraude. Descubrimos que el 97% de los 712 artículos de investigación genética problemáticos que identificamos permanecían sin corregir en la bibliografía.
Cuando se producen retractaciones, a menudo es gracias a los esfuerzos de una pequeña comunidad internacional de detectives aficionados como Oviedo-García y los que publican en PubPeer.
Jillian Goldfarb, profesora asociada de Ingeniería Química y Biomolecular en la Universidad de Cornell y antigua editora de la revista Fuel de Elsevier, lamenta la forma en que la editorial ha gestionado la amenaza de las fábricas de artículos.
«Evaluaba más de 50 trabajos al día», afirma en una entrevista por correo electrónico. Aunque disponía de tecnología para detectar plagios, envíos duplicados y cambios de autor sospechosos, no era suficiente. No es razonable pensar que un editor, para quien este no suele ser su trabajo a tiempo completo, pueda detectar estas cosas leyendo 50 artículos a la vez». La escasez de tiempo, más la presión de los editores para aumentar las tasas de presentación y las citas y disminuir el tiempo de revisión, pone a los editores en una situación imposible.»
En octubre de 2023, Goldfarb dimitió de su cargo de editora de Fuel. En un post de LinkedIn sobre su decisión, citó la incapacidad de la empresa para actuar sobre docenas de posibles artículos que ella había señalado; la contratación de un editor principal que al parecer «se dedicaba a la fabricación de artículos y citas»; y la propuesta de candidatos para puestos editoriales «con perfiles PubPeer más largos y más retractaciones que la mayoría de la gente que tiene artículos en sus CV, y cuyos nombres aparecen como autores en sitios web de artículos en venta.»
«Esto me dice a mí, a nuestra comunidad y al público, que valoran la cantidad de artículos y los beneficios por encima de la ciencia», escribió Goldfarb.
En respuesta a las preguntas sobre la dimisión de Goldfarb, un portavoz de Elsevier dijo a The Conversation que «se toma muy en serio todas las denuncias sobre mala conducta en la investigación en nuestras revistas» y que está investigando las denuncias de Goldfarb. El portavoz añadió que el equipo editorial de Fuel «ha estado trabajando para hacer otros cambios en la revista en beneficio de autores y lectores.»
Esto no funciona así, amigo
Las propuestas de negocio llevaban años acumulándose en la bandeja de entrada de João de Deus Barreto Segundo, director editorial de seis revistas publicadas por la Escuela de Medicina y Salud Pública de Bahía, en Salvador (Brasil). Varias procedían de editoriales sospechosas a la caza de nuevas revistas que añadir a su cartera. Otros procedían de académicos que sugerían tratos sospechosos u ofrecían sobornos para publicar sus artículos.
En un correo electrónico de febrero de 2024, un profesor adjunto de economía de Polonia explicaba que dirigía una empresa que trabajaba con universidades europeas. «¿Estaría interesado en colaborar en la publicación de artículos científicos de científicos que colaboran conmigo?». preguntó Artur Borcuch. «Luego discutiremos los posibles detalles y las condiciones financieras».
Un administrador universitario de Irak fue más sincero: «Como incentivo, estoy dispuesto a ofrecer una subvención de 500 dólares por cada artículo aceptado que se envíe a su estimada revista», escribió Ahmed Alkhayyat, director del Centro de Investigación Científica de la Universidad Islámica, en Nayaf, y gestor del «ranking mundial» de la escuela.
«Así no es como funciona, amigo», replicó Barreto Segundo.
En un correo electrónico enviado a The Conversation, Borcuch negó cualquier intención impropia. «Mi papel es mediar en los aspectos técnicos y de procedimiento de la publicación de un artículo», dijo Borcuch, añadiendo que, cuando trabajaba con varios científicos, »solicitaba un descuento a la oficina editorial en su nombre.» Informado de que la editorial brasileña no cobraba tasas de publicación, Borcuch dijo que se había producido un «error» porque un «empleado» envió el correo electrónico por él «a diferentes revistas».
Las revistas académicas tienen distintos modelos de pago. Muchas se basan en suscripciones y no cobran a los autores por publicar, pero sí por leer los artículos. Las bibliotecas y universidades también pagan grandes sumas por el acceso.
Un modelo de acceso abierto en rápido crecimiento -en el que cualquiera puede leer el artículo- incluye costosas tasas de publicación que se cobran a los autores para compensar la pérdida de ingresos por la venta de los artículos. Estos pagos no pretenden influir en la aceptación o no de un manuscrito.
La Facultad de Medicina y Salud Pública de Bahía, entre otras, no cobra a los autores ni a los lectores, pero la empresa de Barreto Segundo es un pequeño actor en el negocio de las publicaciones académicas, que genera cerca de 30.000 millones de dólares al año con márgenes de beneficio de hasta el 40%.
Las editoriales académicas obtienen sus ingresos principalmente de las cuotas de suscripción de instituciones como bibliotecas y universidades, de los pagos individuales para acceder a artículos de pago y de las cuotas de acceso abierto que pagan los autores para garantizar que sus artículos sean de libre acceso.
El sector es tan lucrativo que ha atraído a agentes sin escrúpulos deseosos de encontrar la manera de desviar parte de esos ingresos.
Ahmed Torad, profesor de la Universidad egipcia de Kafr El Sheikh y redactor jefe de la revista Egyptian Journal of Physiotherapy, pidió una comisión del 30% por cada artículo que pasaba a la editorial brasileña. «Esta comisión se calculará en función de las tasas de publicación generadas por los manuscritos que presenté», escribió Torad, señalando que se especializaba “en poner en contacto a investigadores y autores con revistas adecuadas para su publicación”.
Extracto del correo electrónico de Ahmed Torad que sugiere un soborno. Captura de pantalla de The Conversation, CC BY-ND
Al parecer, no se dio cuenta de que la Facultad de Medicina y Salud Pública de Bahía no cobra honorarios a los autores.
Al igual que Borcuch, Alkhayyat negó cualquier intención impropia. Dijo que había habido un «malentendido» por parte del editor, explicando que el pago que ofreció estaba destinado a cubrir los supuestos gastos de procesamiento del artículo. «Algunas revistas piden dinero. Así que es normal», dijo Alkhayyat.
Torad explicó que había enviado su oferta de obtener artículos a cambio de una comisión a unas 280 revistas, pero que no había obligado a nadie a aceptar los manuscritos. Algunas se mostraron reticentes a su propuesta, a pesar de que habitualmente cobran a los autores miles de dólares por publicar. Sugirió que la comunidad científica no se sentía cómoda admitiendo que la publicación académica se ha convertido en un negocio como cualquier otro, aunque sea «obvio para muchos científicos».
Todos los indeseables avances se dirigieron a una de las revistas que dirigía Barreto Segundo, The Journal of Physiotherapy Research, poco después de que fuera indexada en Scopus, una base de datos de resúmenes y citas propiedad de la editorial Elsevier.
Junto con Web of Science de Clarivate, Scopus se ha convertido en un importante sello de calidad para las publicaciones académicas en todo el mundo. Los artículos de las revistas indexadas son una fuente de ingresos para sus autores: Ayudan a asegurar puestos de trabajo, ascensos, financiación y, en algunos países, incluso desencadenan recompensas en metálico. Para académicos o médicos de países más pobres, pueden ser un billete de entrada al norte global.
Pensemos en Egipto, un país plagado de ensayos clínicos dudosos. Las universidades suelen pagar a sus empleados grandes sumas por publicaciones internacionales, en función del factor de impacto de la revista. Las normativas nacionales contienen una estructura de incentivos similar: Para obtener el rango de profesor titular, por ejemplo, los candidatos deben tener al menos cinco publicaciones en dos años, según el Consejo Superior de Universidades de Egipto. Los estudios en revistas indexadas en Scopus o Web of Science no sólo reciben puntos extra, sino que también están exentos de mayor escrutinio cuando se evalúa a los candidatos. Cuanto mayor es el factor de impacto de una publicación, más puntos obtienen los estudios.
Con tanta atención a las métricas, es habitual que los investigadores egipcios hagan chapuzas, según un médico de El Cairo que pidió el anonimato por temor a represalias. A menudo se cede la autoría a colegas que luego devuelven el favor, o se crean estudios de la nada. A veces se escoge un artículo legítimo de la bibliografía y se cambian detalles clave como el tipo de enfermedad o cirugía y se modifican ligeramente las cifras, explicó la fuente.
Afecta a las directrices clínicas y a la atención médica, «así que es una pena», dijo el médico.
La ivermectina, un fármaco utilizado para tratar parásitos en animales y seres humanos, es un buen ejemplo. Cuando algunos estudios demostraron que era eficaz contra el COVID-19, la ivermectina fue aclamada como un «medicamento milagroso» al principio de la pandemia. Según los Centros para el Control y la Prevención de Enfermedades, un hombre pasó nueve días en el hospital tras ingerir una formulación inyectable del fármaco destinada al ganado. Resultó que casi todas las investigaciones que mostraban un efecto positivo del COVID-19 tenían indicios de falsedad, según informaron la BBC y otros medios, incluido un estudio egipcio ahora retirado. Sin ningún beneficio aparente, a los pacientes sólo les quedaban los efectos secundarios.
La mala conducta en la investigación no se limita a las economías emergentes, ya que recientemente ha acabado con presidentes de universidades y científicos de alto nivel en organismos gubernamentales de Estados Unidos. Tampoco lo es el énfasis en las publicaciones. En Noruega, por ejemplo, el gobierno asigna fondos a institutos de investigación, hospitales y universidades en función de cuántos trabajos académicos publican los empleados y en qué revistas. El país ha decidido poner fin parcialmente a esta práctica a partir de 2025.
«Existe un enorme incentivo académico y un afán de lucro», afirma Lisa Bero, profesora de medicina y salud pública en el Anschutz Medical Campus de la Universidad de Colorado y editora jefe de integridad de la investigación en la Colaboración Cochrane, una organización internacional sin ánimo de lucro que elabora revisiones de pruebas sobre tratamientos médicos. «Lo veo en todas las instituciones en las que he trabajado».
Pero en el Sur global, el edicto de publicar o perecer choca con infraestructuras de investigación y sistemas educativos subdesarrollados, lo que deja a los científicos en un aprieto. Para obtener un doctorado, el médico de El Cairo que solicitó el anonimato realizó un ensayo clínico completo sin ayuda de nadie: desde la compra de la medicación del estudio hasta la asignación aleatoria de los pacientes, pasando por la recopilación y el análisis de los datos y el pago de las tasas de procesamiento de los artículos. En los países más ricos, equipos enteros trabajan en este tipo de estudios, y la factura asciende fácilmente a cientos de miles de dólares.
«Aquí la investigación es todo un reto», afirma el médico. Por eso los científicos «intentan manipular y encontrar formas más fáciles de hacer el trabajo».
Las instituciones también han manipulado el sistema con vistas a las clasificaciones internacionales. En 2011, la revista Science describió cómo se ofrecían cuantiosos pagos a investigadores prolíficos de Estados Unidos y Europa por incluir universidades saudíes como afiliadas secundarias en sus artículos. Y en 2023, la revista, en colaboración con Retraction Watch, destapó una estratagema de autocitación masiva por parte de una facultad de Odontología de primer nivel en la India que obligaba a los estudiantes universitarios a publicar artículos en los que hacían referencia al trabajo de la facultad.
La raíz y las soluciones
Según el sociólogo científico canadiense Yves Gingras, de la Universidad de Quebec en Montreal, la introducción en el mundo académico de métricas basadas en el rendimiento se remonta a la Nueva Gestión Pública, un movimiento que se extendió por todo el mundo occidental en la década de 1980. Cuando las universidades y las instituciones públicas adoptaron la gestión empresarial, los artículos científicos se convirtieron en «unidades contables» utilizadas para evaluar y recompensar la productividad científica, en lugar de «unidades de conocimiento» que hacen avanzar nuestra comprensión del mundo que nos rodea, escribió Gingras.
Esta transformación llevó a muchos investigadores a competir en cifras en lugar de en contenido, lo que hizo que las métricas de publicación no sirvieran para medir las proezas académicas. Como ha demostrado Gingras, el controvertido microbiólogo francés Didier Raoult, que cuenta ahora con más de una docena de retractaciones a su nombre, tiene un índice h -una medida que combina el número de publicaciones y de citas- que duplica al de Albert Einstein, «prueba de que el índice es absurdo», dijo Gingras.
Peor aún, se ha producido una especie de inflación científica, o «burbuja cienciométrica», en la que cada nueva publicación representa un incremento cada vez menor de los conocimientos. «Publicamos artículos cada vez más superficiales, artículos que hay que corregir y empujamos a la gente a cometer fraudes», afirma Gingras.
También en términos de perspectivas profesionales de los académicos, el valor medio de una publicación ha caído en picada, lo que ha provocado un aumento del número de autores hiperprolíficos. Uno de los casos más notorios es el del químico español Rafael Luque, que en 2023 habría publicado un estudio cada 37 horas.
En 2024, Landon Halloran, geocientífico de la Universidad de Neuchâtel, en Suiza, recibe una inusual solicitud de trabajo para una vacante en su laboratorio. Un investigador con un doctorado en China le había enviado su currículum. A sus 31 años, el solicitante había acumulado 160 publicaciones en revistas indexadas en Scopus, 62 de ellas sólo en 2022, el mismo año en que obtuvo su doctorado. Aunque el solicitante no era el único «con una producción sospechosamente alta», según Halloran, sobresalía. «Mis colegas y yo nunca nos habíamos encontrado con nada parecido en las geociencias», afirmó.
Según expertos del sector y editores, ahora hay más conciencia de las amenazas de las fábricas de artículos y otros agentes malintencionados. Algunas revistas comprueban sistemáticamente si hay fraude en las imágenes. Una mala imagen generada por inteligencia artificial que aparezca en un artículo puede ser señal de que un científico ha tomado un atajo imprudente o de que se trata de una fábrica de artículos.
La Colaboración Cochrane tiene una política que excluye los estudios sospechosos de sus análisis de pruebas médicas. La organización también ha desarrollado una herramienta para ayudar a sus revisores a detectar ensayos médicos problemáticos, del mismo modo que las editoriales han empezado a examinar los envíos y a compartir datos y tecnologías entre ellas para combatir el fraude.

Esta imagen, generada por la IA, es un galimatías visual de conceptos relacionados con el transporte y la administración de fármacos en el organismo. Por ejemplo, la figura superior izquierda es una mezcla disparatada de jeringuilla, inhalador y pastillas. Y la molécula portadora sensible al pH de la parte inferior izquierda es enorme, rivalizando con el tamaño de los pulmones. Después de que los científicos señalaran que la imagen publicada no tenía sentido, la revista publicó una corrección. Captura de pantalla de The Conversation, CC BY-ND
«La gente se está dando cuenta de que, vaya, esto está pasando en mi campo, está pasando en tu campo«, dijo Bero», de la Colaboración Cochrane. «Así que realmente tenemos que coordinarnos y, ya sabes, desarrollar un método y un plan general para acabar con estas cosas».
Lo que hizo que Taylor & Francis prestara atención, según Alam, director de Ética e Integridad Editorial, fue una investigación llevada a cabo en 2020 sobre una fábrica de artículos china realzada por la detective Elisabeth Bik y tres de sus colegas, que se hacen llamar Smut Clyde, Morty y Tiger BB8. Con 76 artículos comprometidos, la revista Artificial Cells, Nanomedicine, and Biotechnology, con sede en el Reino Unido, fue la más afectada.
«Abrió un campo de minas», dice Alam, que también copreside United2Act, un proyecto lanzado en 2023 que reúne a editores, investigadores y detectives en la lucha contra las fábricas de artículos. «Fue la primera vez que nos dimos cuenta de que, esencialmente, se estaban utilizando imágenes de stock para representar experimentos».
Taylor & Francis decidió auditar los cientos de artículos de su cartera que contenían tipos de imágenes similares. Duplicó el equipo de Alam, que ahora tiene 14,5 puestos dedicados a hacer investigaciones, y también empezó a controlar los índices de envío. Al parecer, las fábricas de artículos no eran clientes exigentes.
«Lo que intentan es encontrar una puerta y, si consiguen entrar, empezar a golpear las presentaciones», explicó Alam. De repente, 76 artículos falsos parecían una gota de agua en el océano. En una revista de Taylor & Francis, por ejemplo, el equipo de Alam identificó casi 1.000 manuscritos que tenían todas las marcas de proceder de una fábrica, dijo.
Y en 2023, rechazó unas 300 propuestas dudosas para números especiales. «Hemos impedido la entrada de muchísimos», afirma Alam.
Verificadores de fraudes
Ha surgido una pequeña industria de startups tecnológicas para ayudar a editores, investigadores e instituciones a detectar posibles fraudes. El sitio web Argos, lanzado en septiembre de 2024 por Scitility, un servicio de alertas con sede en Sparks (Nevada), permite a los autores comprobar si los nuevos colaboradores están rastreados por retractaciones o problemas de mala conducta. Según la revista Nature, ha marcado decenas de miles de artículos de «alto riesgo».
Las herramientas de comprobación de fraudes examinan los artículos para señalar los que deben ser revisados manualmente y posiblemente rechazados. solidcolours/iStock via Getty Images
Morressier, una empresa de conferencias y comunicaciones científicas con sede en Berlín, «pretende restaurar la confianza en la ciencia mejorando la forma en que se publica la investigación científica», según su sitio web. Ofrece herramientas de integridad que abarcan todo el ciclo de vida de la investigación. Otras nuevas herramientas de comprobación de documentos son Signals, de la empresa londinense Research Signals, y Clear Skies' Papermill Alarm.
Los defraudadores tampoco se han quedado de brazos cruzados. En 2022, cuando Clear Skies lanzó Papermill Alarm, el primer académico que preguntó por la nueva herramienta fue una fábrica de artículos, según Day. La persona quería tener acceso para poder comprobar sus trabajos antes de enviarlos a las editoriales, explica Day. «Las fábricas de artículos han demostrado ser adaptables y también bastante rápidas de reflejos».
Dada la carrera armamentística en curso, Alam reconoce que la lucha contra las fábricas de artículos no se ganará mientras se mantenga el auge de la demanda de sus productos.
Según un análisis de Nature, la tasa de retractación se triplicó de 2012 a 2022 hasta acercarse al 0,02%, o alrededor de 1 de cada 5.000 artículos. Luego casi se duplicó en 2023, en gran parte debido a la debacle de Hindawi de Wiley. Según Byrne, la edición comercial actual es parte del problema. Por un lado, la limpieza de la literatura es una empresa vasta y costosa sin ningún beneficio financiero directo. «Por el momento, las revistas y los editores nunca podrán corregir la bibliografía a la escala y en el plazo necesarios para resolver el problema de la fábrica de artículos», afirma Byrne. «O bien tenemos que monetizar las correcciones de forma que se pague a los editores por su trabajo, o bien olvidarnos de los editores y hacerlo nosotros mismos».
Pero eso no solucionaría el sesgo fundamental de las publicaciones con ánimo de lucro: las revistas no cobran por rechazar artículos. «Les pagamos por aceptar artículos», afirma Bodo Stern, ex director de la revista Cell y jefe de Iniciativas Estratégicas del Instituto Médico Howard Hughes, una organización de investigación sin ánimo de lucro y uno de los principales financiadores de Chevy Chase, Maryland. «¿Qué crees que van a hacer las revistas? Van a aceptar artículos».
Con más de 50.000 revistas en el mercado, aunque algunas se esfuercen por hacer las cosas bien, los artículos malos que se venden durante el tiempo suficiente acaban encontrando un sitio, añade Stern. «Ese sistema no puede funcionar como mecanismo de control de calidad», afirma. «Tenemos tantas revistas que todo puede publicarse».
En opinión de Stern, el camino a seguir es dejar de pagar a las revistas por aceptar artículos y empezar a considerarlas servicios públicos que sirven a un bien mayor. «Deberíamos pagar por mecanismos de control de calidad transparentes y rigurosos», afirmó.
La revisión por pares, por su parte, «debería reconocerse como un verdadero producto académico, al igual que el artículo original, porque los autores del artículo y los revisores utilizan las mismas habilidades», dijo Stern. Del mismo modo, las revistas deberían hacer públicos todos los informes de revisión por pares, incluso de los manuscritos que rechazan. «Cuando realizan un control de calidad, no pueden limitarse a rechazar el artículo y luego dejar que se publique en otro sitio», dijo Stern. «Ese no es un buen servicio».
Mejores medidas
Stern no es el primer científico que lamenta la excesiva atención prestada a la bibliometría. «Necesitamos menos investigación, mejor investigación y que la investigación se haga por las razones correctas», escribió el difunto estadístico Douglas G. Altman en un muy citado editorial de 1994. «Abandonar el uso del número de publicaciones como medida de la capacidad sería un comienzo».
Casi dos décadas después, un grupo de unos 150 científicos y 75 organizaciones científicas publicaron la Declaración de San Francisco sobre la Evaluación de la Investigación, o DORA, desaconsejando el uso del factor de impacto de las revistas y otras medidas como indicadores de calidad. La declaración de 2013 ha sido firmada desde entonces por más de 25.000 personas y organizaciones de 165 países.
A pesar de la declaración, las métricas siguen utilizándose ampliamente en la actualidad, y los científicos afirman que existe una nueva sensación de urgencia.
«Estamos llegando a un punto en el que la gente realmente siente que tiene que hacer algo» debido al gran número de artículos falsos, afirma Richard Sever, director adjunto de Cold Spring Harbor Laboratory Press, en Nueva York, y cofundador de los servidores de preimpresión bioRxiv y medRxiv.
Stern y sus colegas han intentado introducir mejoras en su institución. Desde hace tiempo, a los investigadores que desean renovar su contrato de siete años se les exige que escriban un breve párrafo en el que describan la importancia de sus principales resultados. Desde finales de 2023, también se les ha pedido que eliminen los nombres de las revistas de sus solicitudes.
De ese modo, «nunca puedes hacer lo que hacen todos los revisores -yo lo he hecho-, mirar la bibliografía y en un segundo decidir: “Oh, esta persona ha sido productiva porque ha publicado muchos trabajos y están publicados en las revistas adecuadas”», dice Stern. «Lo que importa es si realmente ha marcado la diferencia».
Desviar la atención de las cómodas métricas de rendimiento parece posible no sólo para instituciones privadas ricas como el Howard Hughes Medical Institute, sino también para grandes financiadores gubernamentales. En Australia, por ejemplo, el Consejo Nacional de Salud e Investigación Médica puso en marcha en 2022 la política «top 10 in 10», cuyo objetivo es, en parte, «valorar la calidad de la investigación más que la cantidad de publicaciones».
En lugar de proporcionar toda su bibliografía, la agencia, que evalúa miles de solicitudes de subvención cada año, pidió a los investigadores que enumeraran un máximo de 10 publicaciones de la última década y explicaran la contribución que cada una de ellas había hecho a la ciencia. Según un informe de evaluación de abril de 2024, cerca de tres cuartas partes de los revisores de subvenciones afirmaron que la nueva política les permitía concentrarse más en la calidad de la investigación que en la cantidad. Y más de la mitad afirmaron que redujo el tiempo que dedicaban a cada solicitud.
Gingras, sociólogo canadiense, es partidario de dar a los científicos el tiempo que necesitan para producir trabajos que importen, en lugar de un torrente efusivo de publicaciones. Es uno de los firmantes del Manifiesto por una Ciencia Lenta: «Una vez que se consiga una ciencia lenta, puedo predecir que el número de correcciones, el número de retractaciones, descenderá», afirma.
En un momento dado, Gingras participó en la evaluación de una organización de investigación cuya misión era mejorar la seguridad en el lugar de trabajo. Un empleado presentó su trabajo. «Tuvo una frase que nunca olvidaré», recuerda Gingras. El empleado empezó diciendo: «“Sabe, estoy orgulloso de una cosa: mi índice h es cero”. Y fue brillante». El científico había desarrollado una tecnología que evitaba las caídas mortales entre los trabajadores de la construcción. «Me dijo: 'Eso es útil, y ese es mi trabajo'. Yo dije: '¡Bravo!».
Más información sobre cómo el Detector de Documentos Problemáticos descubre documentos comprometidos.
//////////////////////////////
Fake papers are contaminating the world’s scientific literature, fueling a corrupt industry and slowing legitimate lifesaving medical research
Published: January 29, 2025
Authors
Frederik Joelving
Contributing editor, Retraction Watch
Cyril Labbé
Professor of Computer Science, Université Grenoble Alpes (UGA)
Guillaume Cabanac
Professor of Computer Science, Institut de Recherche en Informatique de Toulouse
Over the past decade, furtive commercial entities around the world have industrialized the production, sale and dissemination of bogus scholarly research, undermining the literature that everyone from doctors to engineers rely on to make decisions about human lives.
It is exceedingly difficult to get a handle on exactly how big the problem is. Around 55,000 scholarly papers have been retracted to date, for a variety of reasons, but scientists and companies who screen the scientific literature for telltale signs of fraud estimate that there are many more fake papers circulating – possibly as many as several hundred thousand. This fake research can confound legitimate researchers who must wade through dense equations, evidence, images and methodologies only to find that they were made up.
Even when the bogus papers are spotted – usually by amateur sleuths on their own time – academic journals are often slow to retract the papers, allowing the articles to taint what many consider sacrosanct: the vast global library of scholarly work that introduces new ideas, reviews other research and discusses findings.
These fake papers are slowing down research that has helped millions of people with lifesaving medicine and therapies from cancer to COVID-19. Analysts’ data shows that fields related to cancer and medicine are particularly hard hit, while areas like philosophy and art are less affected. Some scientists have abandoned their life’s work because they cannot keep pace given the number of fake papers they must bat down.
The problem reflects a worldwide commodification of science. Universities, and their research funders, have long used regular publication in academic journals as requirements for promotions and job security, spawning the mantra “publish or perish.”
But now, fraudsters have infiltrated the academic publishing industry to prioritize profits over scholarship. Equipped with technological prowess, agility and vast networks of corrupt researchers, they are churning out papers on everything from obscure genes to artificial intelligence in medicine.
These papers are absorbed into the worldwide library of research faster than they can be weeded out. About 119,000 scholarly journal articles and conference papers are published globally every week, or more than 6 million a year. Publishers estimate that, at most journals, about 2% of the papers submitted – but not necessarily published – are likely fake, although this number can be much higher at some publications.
While no country is immune to this practice, it is particularly pronounced in emerging economies where resources to do bona fide science are limited – and where governments, eager to compete on a global scale, push particularly strong “publish or perish” incentives.
As a result, there is a bustling online underground economy for all things scholarly publishing. Authorship, citations, even academic journal editors, are up for sale. This fraud is so prevalent that it has its own name: paper mills, a phrase that harks back to “term-paper mills”, where students cheat by getting someone else to write a class paper for them.
The impact on publishers is profound. In high-profile cases, fake articles can hurt a journal’s bottom line. Important scientific indexes – databases of academic publications that many researchers rely on to do their work – may delist journals that publish too many compromised papers. There is growing criticism that legitimate publishers could do more to track and blacklist journals and authors who regularly publish fake papers that are sometimes little more than artificial intelligence-generated phrases strung together.
To better understand the scope, ramifications and potential solutions of this metastasizing assault on science, we – a contributing editor at Retraction Watch, a website that reports on retractions of scientific papers and related topics, and two computer scientists at France’s Université Toulouse III–Paul Sabatier and Université Grenoble Alpes who specialize in detecting bogus publications – spent six months investigating paper mills.
This included, by some of us at different times, trawling websites and social media posts, interviewing publishers, editors, research-integrity experts, scientists, doctors, sociologists and scientific sleuths engaged in the Sisyphean task of cleaning up the literature. It also involved, by some of us, screening scientific articles looking for signs of fakery.
Problematic Paper Screener: Trawling for fraud in the scientific literature
What emerged is a deep-rooted crisis that has many researchers and policymakers calling for a new way for universities and many governments to evaluate and reward academics and health professionals across the globe.
Just as highly biased websites dressed up to look like objective reporting are gnawing away at evidence-based journalism and threatening elections, fake science is grinding down the knowledge base on which modern society rests.
As part of our work detecting these bogus publications, co-author Guillaume Cabanac developed the Problematic Paper Screener, which filters 130 million new and old scholarly papers every week looking for nine types of clues that a paper might be fake or contain errors. A key clue is a tortured phrase – an awkward wording generated by software that replaces common scientific terms with synonyms to avoid direct plagiarism from a legitimate paper.
Problematic Paper Screener: Trawling for fraud in the scientific literature
An obscure molecule
Frank Cackowski at Detroit’s Wayne State University was confused.
The oncologist was studying a sequence of chemical reactions in cells to see if they could be a target for drugs against prostate cancer. A paper from 2018 from 2018 in the American Journal of Cancer Research piqued his interest when he read that a little-known molecule called SNHG1 might interact with the chemical reactions he was exploring. He and fellow Wayne State researcher Steven Zielske began a series of experiments to learn more about the link. Surprisingly, they found there wasn’t a link.
Meanwhile, Zielske had grown suspicious of the paper. Two graphs showing results for different cell lines were identical, he noticed, which “would be like pouring water into two glasses with your eyes closed and the levels coming out exactly the same.” Another graph and a table in the article also inexplicably contained identical data.
Zielske described his misgivings in an anonymous post in 2020 at PubPeer, an online forum where many scientists report potential research misconduct, and also contacted the journal’s editor. Shortly thereafter, the journal pulled the paper, citing “falsified materials and/or data.”
“Science is hard enough as it is if people are actually being genuine and trying to do real work,” says Cackowski, who also works at the Karmanos Cancer Institute in Michigan. “And it’s just really frustrating to waste your time based on somebody’s fraudulent publications.”
Wayne State scientists Frank Cackowski and Steven Zielske carried out experiments based on a paper they later found to contain false data. Amy Sacka, CC BY-ND
He worries that the bogus publications are slowing down “legitimate research that down the road is going to impact patient care and drug development.”
The two researchers eventually found that SNHG1 did appear to play a part in prostate cancer, though not in the way the suspect paper suggested. But it was a tough topic to study. Zielske combed through all the studies on SNHG1 and cancer – some 150 papers, nearly all from Chinese hospitals – and concluded that “a majority” of them looked fake. Some reported using experimental reagents known as primers that were “just gibberish,” for instance, or targeted a different gene than what the study said, according to Zielske. He contacted several of the journals, he said, but received little response. “I just stopped following up.”
The many questionable articles also made it harder to get funding, Zielske said. The first time he submitted a grant application to study SNHG1, it was rejected, with one reviewer saying “the field was crowded,” Zielske recalled. The following year, he explained in his application how most of the literature likely came from paper mills. He got the grant.
Today, Zielske said, he approaches new research differently than he used to: “You can’t just read an abstract and have any faith in it. I kind of assume everything’s wrong.”
Legitimate academic journals evaluate papers before they are published by having other researchers in the field carefully read them over. This peer review process is designed to stop flawed research from being disseminated, but is far from perfect.
Reviewers volunteer their time, typically assume research is real and so don’t look for signs of fraud. And some publishers may try to pick reviewers they deem more likely to accept papers, because rejecting a manuscript can mean losing out on thousands of dollars in publication fees.
“Even good, honest reviewers have become apathetic” because of “the volume of poor research coming through the system,” said Adam Day, who directs Clear Skies, a company in London that develops data-based methods to help spot falsified papers and academic journals. “Any editor can recount seeing reports where it’s obvious the reviewer hasn’t read the paper.”
With AI, they don’t have to: New research shows that many reviews are now written by ChatGPT and similar tools.
To expedite the publication of one another’s work, some corrupt scientists form peer review rings. Paper mills may even create fake peer reviewers impersonating real scientists to ensure their manuscripts make it through to publication. Others bribe editors or plant agents on journal editorial boards.
María de los Ángeles Oviedo-García, a professor of marketing at the University of Seville in Spain, spends her spare time hunting for suspect peer reviews from all areas of science, hundreds of which she has flagged on PubPeer. Some of these reviews are the length of a tweet, others ask authors to cite the reviewer’s work even if it has nothing to do with the science at hand, and many closely resemble other peer reviews for very different studies – evidence, in her eyes, of what she calls “review mills.”
PubPeer comment from María de los Ángeles Oviedo-García pointing out that a peer review report is very similar to two other reports. She also points out that authors and citations for all three are either anonymous or the same person – both hallmarks of fake papers. Screen capture by The Conversation, CC BY-ND
“One of the demanding fights for me is to keep faith in science,” says Oviedo-García, who tells her students to look up papers on PubPeer before relying on them too heavily. Her research has been slowed down, she adds, because she now feels compelled to look for peer review reports for studies she uses in her work. Often there aren’t any, because “very few journals publish those review reports,” Oviedo-García says.
An ‘absolutely huge’ problem
It is unclear when paper mills began to operate at scale. The earliest article retracted due to suspected involvement of such agencies was published in 2004, according to the Retraction Watch Database, which contains details about tens of thousands of retractions. (The database is operated by The Center for Scientific Integrity, the parent nonprofit of Retraction Watch.) Nor is it clear exactly how many low-quality, plagiarized or made-up articles paper mills have spawned.
But the number is likely to be significant and growing, experts say. One Russia-linked paper mill in Latvia, for instance, claims on its website to have published “more than 12,650 articles” since 2012.
An analysis of 53,000 papers submitted to six publishers – but not necessarily published – found the proportion of suspect papers ranged from 2% to 46% across journals. And the American publisher Wiley, which has retracted more than 11,300 compromised articles and closed 19 heavily affected journals in its erstwhile Hindawi division, recently said its new paper-mill detection tool flags up to 1 in 7 submissions.
Facebook ad from an Indian paper mill selling co-authorship of a paper. Screenshot by The Conversation
Day, of Clear Skies, estimates that as many as 2% of the several million scientific works published in 2022 were milled. Some fields are more problematic than others. The number is closer to 3% in biology and medicine, and in some subfields, like cancer, it may be much larger, according to Day. Despite increased awareness today, “I do not see any significant change in the trend,” he said. With improved methods of detection, “any estimate I put out now will be higher.”
The paper-mill problem is “absolutely huge,” said Sabina Alam, director of Publishing Ethics and Integrity at Taylor & Francis, a major academic publisher. In 2019, none of the 175 ethics cases that editors escalated to her team was about paper mills, Alam said. Ethics cases include submissions and already published papers. In 2023, “we had almost 4,000 cases,” she said. “And half of those were paper mills.”
Jennifer Byrne, an Australian scientist who now heads up a research group to improve the reliability of medical research, submitted testimony for a hearing of the U.S. House of Representatives’ Committee on Science, Space, and Technology in July 2022. She noted that 700, or nearly 6%, of 12,000 cancer research papers screened had errors that could signal paper mill involvement. Byrne shuttered her cancer research lab in 2017 because the genes she had spent two decades researching and writing about became the target of an enormous number of fake papers. A rogue scientist fudging data is one thing, she said, but a paper mill could churn out dozens of fake studies in the time it took her team to publish a single legitimate one.
“The threat of paper mills to scientific publishing and integrity has no parallel over my 30-year scientific career …. In the field of human gene science alone, the number of potentially fraudulent articles could exceed 100,000 original papers,” she wrote to lawmakers, adding, “This estimate may seem shocking but is likely to be conservative.”
In one area of genetics research – the study of noncoding RNA in different types of cancer – “We’re talking about more than 50% of papers published are from mills,” Byrne said. “It’s like swimming in garbage.”
In 2022, Byrne and colleagues, including two of us, found that suspect genetics research, despite not having an immediate impact on patient care, still informs the work of other scientists, including those running clinical trials. Publishers, however, are often slow to retract tainted papers, even when alerted to obvious signs of fraud. We found that 97% of the 712 problematic genetics research articles we identified remained uncorrected within the literature.
When retractions do happen, it is often thanks to the efforts of a small international community of amateur sleuths like Oviedo-García and those who post on PubPeer.
Jillian Goldfarb, an associate professor of chemical and biomolecular engineering at Cornell University and a former editor of the Elsevier journal Fuel, laments the publisher’s handling of the threat from paper mills.
“I was assessing upwards of 50 papers every day,” she said in an email interview. While she had technology to detect plagiarism, duplicate submissions and suspicious author changes, it was not enough. “It’s unreasonable to think that an editor – for whom this is not usually their full-time job – can catch these things reading 50 papers at a time. The time crunch, plus pressure from publishers to increase submission rates and citations and decrease review time, puts editors in an impossible situation.”
In October 2023, Goldfarb resigned from her position as editor of Fuel. In a LinkedIn post about her decision, she cited the company’s failure to move on dozens of potential paper-mill articles she had flagged; its hiring of a principal editor who reportedly “engaged in paper and citation milling”; and its proposal of candidates for editorial positions “with longer PubPeer profiles and more retractions than most people have articles on their CVs, and whose names appear as authors on papers-for-sale websites.”
“This tells me, our community, and the public, that they value article quantity and profit over science,” Goldfarb wrote.
In response to questions about Goldfarb’s resignation, an Elsevier spokesperson told The Conversation that it “takes all claims about research misconduct in our journals very seriously” and is investigating Goldfarb’s claims. The spokesperson added that Fuel’s editorial team has “been working to make other changes to the journal to benefit authors and readers.”
That’s not how it works, buddy
Business proposals had been piling up for years in the inbox of João de Deus Barreto Segundo, managing editor of six journals published by the Bahia School of Medicine and Public Health in Salvador, Brazil. Several came from suspect publishers on the prowl for new journals to add to their portfolios. Others came from academics suggesting fishy deals or offering bribes to publish their paper.
In one email from February 2024, an assistant professor of economics in Poland explained that he ran a company that worked with European universities. “Would you be interested in collaboration on the publication of scientific articles by scientists who collaborate with me?” Artur Borcuch inquired. “We will then discuss possible details and financial conditions.”
A university administrator in Iraq was more candid: “As an incentive, I am prepared to offer a grant of $500 for each accepted paper submitted to your esteemed journal,” wrote Ahmed Alkhayyat, head of the Islamic University Centre for Scientific Research, in Najaf, and manager of the school’s “world ranking.”
“That’s not how it works, buddy,” Barreto Segundo shot back.
In email to The Conversation, Borcuch denied any improper intent. “My role is to mediate in the technical and procedural aspects of publishing an article,” Borcuch said, adding that, when working with multiple scientists, he would “request a discount from the editorial office on their behalf.” Informed that the Brazilian publisher had no publication fees, Borcuch said a “mistake” had occurred because an “employee” sent the email for him “to different journals.”
Academic journals have different payment models. Many are subscription-based and don’t charge authors for publishing, but have hefty fees for reading articles. Libraries and universities also pay large sums for access.
A fast-growing open-access model – where anyone can read the paper – includes expensive publication fees levied on authors to make up for the loss of revenue in selling the articles. These payments are not meant to influence whether or not a manuscript is accepted.
The Bahia School of Medicine and Public Health, among others, doesn’t charge authors or readers, but Barreto Segundo’s employer is a small player in the scholarly publishing business, which brings in close to $30 billion a year on profit margins as high as 40%. Academic publishers make money largely from subscription fees from institutions like libraries and universities, individual payments to access paywalled articles, and open-access fees paid by authors to ensure their articles are free for anyone to read.
The industry is lucrative enough that it has attracted unscrupulous actors eager to find a way to siphon off some of that revenue.
Ahmed Torad, a lecturer at Kafr El Sheikh University in Egypt and editor-in-chief of the Egyptian Journal of Physiotherapy, asked for a 30% kickback for every article he passed along to the Brazilian publisher. “This commission will be calculated based on the publication fees generated by the manuscripts I submit,” Torad wrote, noting that he specialized “in connecting researchers and authors with suitable journals for publication.”
Excerpt from Ahmed Torad’s email suggesting a kickback. Screenshot by The Conversation, CC BY-ND
Apparently, he failed to notice that Bahia School of Medicine and Public Health doesn’t charge author fees.
Like Borcuch, Alkhayyat denied any improper intent. He said there had been a “misunderstanding” on the editor’s part, explaining that the payment he offered was meant to cover presumed article-processing charges. “Some journals ask for money. So this is normal,” Alkhayyat said.
Torad explained that he had sent his offer to source papers in exchange for a commission to some 280 journals, but had not forced anyone to accept the manuscripts. Some had balked at his proposition, he said, despite regularly charging authors thousands of dollars to publish. He suggested that the scientific community wasn’t comfortable admitting that scholarly publishing has become a business like any other, even if it’s “obvious to many scientists.”
The unwelcome advances all targeted one of the journals Barreto Segundo managed, The Journal of Physiotherapy Research, soon after it was indexed in Scopus, a database of abstracts and citations owned by the publisher Elsevier.
Along with Clarivate’s Web of Science, Scopus has become an important quality stamp for scholarly publications globally. Articles in indexed journals are money in the bank for their authors: They help secure jobs, promotions, funding and, in some countries, even trigger cash rewards. For academics or physicians in poorer countries, they can be a ticket to the global north.
Consider Egypt, a country plagued by dubious clinical trials. Universities there commonly pay employees large sums for international publications, with the amount depending on the journal’s impact factor. A similar incentive structure is hardwired into national regulations: To earn the rank of full professor, for example, candidates must have at least five publications in two years, according to Egypt’s Supreme Council of Universities. Studies in journals indexed in Scopus or Web of Science not only receive extra points, but they also are exempt from further scrutiny when applicants are evaluated. The higher a publication’s impact factor, the more points the studies get.
With such a focus on metrics, it has become common for Egyptian researchers to cut corners, according to a physician in Cairo who requested anonymity for fear of retaliation. Authorship is frequently gifted to colleagues who then return the favor later, or studies may be created out of whole cloth. Sometimes an existing legitimate paper is chosen from the literature, and key details such as the type of disease or surgery are then changed and the numbers slightly modified, the source explained.
It affects clinical guidelines and medical care, “so it’s a shame,” the physician said.
Ivermectin, a drug used to treat parasites in animals and humans, is a case in point. When some studies showed that it was effective against COVID-19, ivermectin was hailed as a “miracle drug” early in the pandemic. Prescriptions surged, and along with them calls to U.S. poison centers; one man spent nine days in the hospital after downing an injectable formulation of the drug that was meant for cattle, according to the Centers for Disease Control and Prevention. As it turned out, nearly all of the research that showed a positive effect on COVID-19 had indications of fakery, the BBC and others reported – including a now-withdrawn Egyptian study. With no apparent benefit, patients were left with just side effects.
Research misconduct isn’t limited to emerging economies, having recently felled university presidents and top scientists at government agencies in the United States. Neither is the emphasis on publications. In Norway, for example, the government allocates funding to research institutes, hospitals and universities based on how many scholarly works employees publish, and in which journals. The country has decided to partly halt this practice starting in 2025.
“There’s a huge academic incentive and profit motive,” says Lisa Bero, a professor of medicine and public health at the University of Colorado Anschutz Medical Campus and the senior research-integrity editor at the Cochrane Collaboration, an international nonprofit organization that produces evidence reviews about medical treatments. “I see it at every institution I’ve worked at.”
But in the global south, the publish-or-perish edict runs up against underdeveloped research infrastructures and education systems, leaving scientists in a bind. For a Ph.D., the Cairo physician who requested anonymity conducted an entire clinical trial single-handedly – from purchasing study medication to randomizing patients, collecting and analyzing data and paying article-processing fees. In wealthier nations, entire teams work on such studies, with the tab easily running into the hundreds of thousands of dollars.
“Research is quite challenging here,” the physician said. That’s why scientists “try to manipulate and find easier ways so they get the job done.”
Institutions, too, have gamed the system with an eye to international rankings. In 2011, the journal Science described how prolific researchers in the United States and Europe were offered hefty payments for listing Saudi universities as secondary affiliations on papers. And in 2023, the magazine, in collaboration with Retraction Watch, uncovered a massive self-citation ploy by a top-ranked dental school in India that forced undergraduate students to publish papers referencing faculty work.
The root – and solutions
Such unsavory schemes can be traced back to the introduction of performance-based metrics in academia, a development driven by the New Public Management movement that swept across the Western world in the 1980s, according to Canadian sociologist of science Yves Gingras of the Université du Québec à Montréal. When universities and public institutions adopted corporate management, scientific papers became “accounting units” used to evaluate and reward scientific productivity rather than “knowledge units” advancing our insight into the world around us, Gingras wrote.
This transformation led many researchers to compete on numbers instead of content, which made publication metrics poor measures of academic prowess. As Gingras has shown, the controversial French microbiologist Didier Raoult, who now has more than a dozen retractions to his name, has an h-index – a measure combining publication and citation numbers – that is twice as high as that of Albert Einstein – “proof that the index is absurd,” Gingras said.
Worse, a sort of scientific inflation, or “scientometric bubble,” has ensued, with each new publication representing an increasingly small increment in knowledge. “We publish more and more superficial papers, we publish papers that have to be corrected, and we push people to do fraud,” said Gingras.
In terms of career prospects of individual academics, too, the average value of a publication has plummeted, triggering a rise in the number of hyperprolific authors. One of the most notorious cases is Spanish chemist Rafael Luque, who in 2023 reportedly published a study every 37 hours.
In 2024, Landon Halloran, a geoscientist at the University of Neuchâtel, in Switzerland, received an unusual job application for an opening in his lab. A researcher with a Ph.D. from China had sent him his CV. At 31, the applicant had amassed 160 publications in Scopus-indexed journals, 62 of them in 2022 alone, the same year he obtained his doctorate. Although the applicant was not the only one “with a suspiciously high output,” according to Halloran, he stuck out. “My colleagues and I have never come across anything quite like it in the geosciences,” he said.
According to industry insiders and publishers, there is more awareness now of threats from paper mills and other bad actors. Some journals routinely check for image fraud. A bad AI-generated image showing up in a paper can either be a sign of a scientist taking an ill-advised shortcut, or a paper mill.
The Cochrane Collaboration has a policy excluding suspect studies from its analyses of medical evidence. The organization also has been developing a tool to help its reviewers spot problematic medical trials, just as publishers have begun to screen submissions and share data and technologies among themselves to combat fraud.
This image, generated by AI, is a visual gobbledygook of concepts around transporting and delivering drugs in the body. For instance, the upper left figure is a nonsensical mix of a syringe, an inhaler and pills. And the pH-sensitive carrier molecule on the lower left is huge, rivaling the size of the lungs. After scientist sleuths pointed out that the published image made no sense, the journal issued a correction. Screen capture by The Conversation, CC BY-ND
This graphic is the corrected image that replaced the AI image above. In this case, according to the correction, the journal determined that the paper was legitimate but the scientists had used AI to generate the image describing it. Screen capture by The Conversation, CC BY-ND
“People are realizing like, wow, this is happening in my field, it’s happening in your field,” said the Cochrane Collaboration’s Bero". “So we really need to get coordinated and, you know, develop a method and a plan overall for stamping these things out.”
What jolted Taylor & Francis into paying attention, according to Alam, the director of Publishing Ethics and Integrity, was a 2020 investigation of a Chinese paper mill by sleuth Elisabeth Bik and three of her peers who go by the pseudonyms Smut Clyde, Morty and Tiger BB8. With 76 compromised papers, the U.K.-based company’s Artificial Cells, Nanomedicine, and Biotechnology was the most affected journal identified in the probe.
“It opened up a minefield,” says Alam, who also co-chairs United2Act, a project launched in 2023 that brings together publishers, researchers and sleuths in the fight against paper mills. “It was the first time we realized that stock images essentially were being used to represent experiments.”
Taylor & Francis decided to audit the hundreds of articles in its portfolio that contained similar types of images. It doubled Alam’s team, which now has 14.5 positions dedicated to doing investigations, and also began monitoring submission rates. Paper mills, it seemed, weren’t picky customers.
“What they’re trying to do is find a gate, and if they get in, then they just start kind of slamming in the submissions,” Alam said. Seventy-six fake papers suddenly seemed like a drop in the ocean. At one Taylor & Francis journal, for instance, Alam’s team identified nearly 1,000 manuscripts that bore all the marks of coming from a mill, she said.
And in 2023, it rejected about 300 dodgy proposals for special issues. “We’ve blocked a hell of a lot from coming through,” Alam said.
Fraud checkers
A small industry of technology startups has sprung up to help publishers, researchers and institutions spot potential fraud. The website Argos, launched in September 2024 by Scitility, an alert service based in Sparks, Nevada, allows authors to check if new collaborators are trailed by retractions or misconduct concerns. It has flagged tens of thousands of “high-risk” papers, according to the journal Nature.
Fraud-checker tools sift through papers to point to those that should be manually checked and possibly rejected. solidcolours/iStock via Getty Images
Morressier, a scientific conference and communications company based in Berlin, “aims to restore trust in science by improving the way scientific research is published”, according to its website. It offers integrity tools that target the entire research life cycle. Other new paper-checking tools include Signals, by London-based Research Signals, and Clear Skies’ Papermill Alarm.
The fraudsters have not been idle, either. In 2022, when Clear Skies released the Papermill Alarm, the first academic to inquire about the new tool was a paper miller, according to Day. The person wanted access so he could check his papers before firing them off to publishers, Day said. “Paper mills have proven to be adaptive and also quite quick off the mark.”
Given the ongoing arms race, Alam acknowledges that the fight against paper mills won’t be won as long as the booming demand for their products remains.
According to a Nature analysis, the retraction rate tripled from 2012 to 2022 to close to .02%, or around 1 in 5,000 papers. It then nearly doubled in 2023, in large part because of Wiley’s Hindawi debacle. Today’s commercial publishing is part of the problem, Byrne said. For one, cleaning up the literature is a vast and expensive undertaking with no direct financial upside. “Journals and publishers will never, at the moment, be able to correct the literature at the scale and in the timeliness that’s required to solve the paper-mill problem,” Byrne said. “Either we have to monetize corrections such that publishers are paid for their work, or forget the publishers and do it ourselves.”
But that still wouldn’t fix the fundamental bias built into for-profit publishing: Journals don’t get paid for rejecting papers. “We pay them for accepting papers,” said Bodo Stern, a former editor of the journal Cell and chief of Strategic Initiatives at Howard Hughes Medical Institute, a nonprofit research organization and major funder in Chevy Chase, Maryland. “I mean, what do you think journals are going to do? They’re going to accept papers.”
With more than 50,000 journals on the market, even if some are trying hard to get it right, bad papers that are shopped around long enough eventually find a home, Stern added. “That system cannot function as a quality-control mechanism,” he said. “We have so many journals that everything can get published.”
In Stern’s view, the way to go is to stop paying journals for accepting papers and begin looking at them as public utilities that serve a greater good. “We should pay for transparent and rigorous quality-control mechanisms,” he said.
Peer review, meanwhile, “should be recognized as a true scholarly product, just like the original article, because the authors of the article and the peer reviewers are using the same skills,” Stern said. By the same token, journals should make all peer-review reports publicly available, even for manuscripts they turn down. “When they do quality control, they can’t just reject the paper and then let it be published somewhere else,” Stern said. “That’s not a good service.”
Better measures
Stern isn’t the first scientist to bemoan the excessive focus on bibliometrics. “We need less research, better research, and research done for the right reasons,” wrote the late statistician Douglas G. Altman in a much-cited editorial from 1994. “Abandoning using the number of publications as a measure of ability would be a start.”
Nearly two decades later, a group of some 150 scientists and 75 science organizations released the San Francisco Declaration on Research Assessment, or DORA, discouraging the use of the journal impact factor and other measures as proxies for quality. The 2013 declaration has since been signed by more than 25,000 individuals and organizations in 165 countries.
Despite the declaration, metrics remain in wide use today, and scientists say there is a new sense of urgency.
“We’re getting to the point where people really do feel they have to do something” because of the vast number of fake papers, said Richard Sever, assistant director of Cold Spring Harbor Laboratory Press, in New York, and co-founder of the preprint servers bioRxiv and medRxiv.
Stern and his colleagues have tried to make improvements at their institution. Researchers who wish to renew their seven-year contract have long been required to write a short paragraph describing the importance of their major results. Since the end of 2023, they also have been asked to remove journal names from their applications.
That way, “you can never do what all reviewers do – I’ve done it – look at the bibliography and in just one second decide, ‘Oh, this person has been productive because they have published many papers and they’re published in the right journals,’” says Stern. “What matters is, did it really make a difference?”
Shifting the focus away from convenient performance metrics seems possible not just for wealthy private institutions like Howard Hughes Medical Institute, but also for large government funders. In Australia, for example, the National Health and Medical Research Council in 2022 launched the “top 10 in 10” policy, aiming, in part, to “value research quality rather than quantity of publications.”
Rather than providing their entire bibliography, the agency, which assesses thousands of grant applications every year, asked researchers to list no more than 10 publications from the past decade and explain the contribution each had made to science. According to an evaluation report from April, 2024 close to three-quarters of grant reviewers said the new policy allowed them to concentrate more on research quality than quantity. And more than half said it reduced the time they spent on each application.
Gingras, the Canadian sociologist, advocates giving scientists the time they need to produce work that matters, rather than a gushing stream of publications. He is a signatory to the Slow Science Manifesto: “Once you get slow science, I can predict that the number of corrigenda, the number of retractions, will go down,” he says.
At one point, Gingras was involved in evaluating a research organization whose mission was to improve workplace security. An employee presented his work. “He had a sentence I will never forget,” Gingras recalls. The employee began by saying, “‘You know, I’m proud of one thing: My h-index is zero.’ And it was brilliant.” The scientist had developed a technology that prevented fatal falls among construction workers. “He said, ‘That’s useful, and that’s my job.’ I said, ‘Bravo!’”
Learn more about how the Problematic Paper Screener uncovers compromised papers.
No hay comentarios:
Publicar un comentario