Mostrando entradas con la etiqueta Fraude científico. Mostrar todas las entradas
Mostrando entradas con la etiqueta Fraude científico. Mostrar todas las entradas

martes, 28 de enero de 2025

Editoriales académicas cuestionables y fábricas de artículos

Publicado en blog Amontonamos las palabras - Blog de la Biblioteca de El Colegio de México
https://bdcv.hypotheses.org/5962



Editoriales académicas cuestionables y fábricas de artículos


por  · Publicada 30/10/2024 · Actualizado 29/10/2024

Introducción 

Esta entrada del blog tiene el objetivo de abrir un espacio de discusión para abordar el tema de las editoriales académicas que no pueden definirse como depredadoras, pero que emplean métodos o prácticas editoriales cuestionables, y de las fábricas de artículos. La nota busca dar seguimiento a lo que publicó con anterioridad por Eduardo Ruvalcaba sobre revistas y editoriales depredadores, así como sobre los congresos cuestionables y revistas suplantadasEn estas notas, se abordó el negocio de las editoriales y publicaciones pseudocientíficas que buscan lucrar económicamente a partir de los ritmos y necesidades de publicación en la academia, dejando de lado la calidad y rigurosidad académicaSe podría pensar que basta con definir criterios y recomendaciones a modo de check list parevitar caer en este tipo de fraudes académicos, como la herramienta de ThinkCheck-Submit o la lista de Jefrey Ball. Pese a que ésta y otras herramientas son útiles para emitir una valoración, el panorama actual de la publicación académica se ha complejizado a grado tal, que asignar denominaciones como “depredadora” a ciertas editoriales, puede terminar en reclamos por parte de éstas (Kincaid, 2023). 

Editoriales académicas con prácticas cuestionables 

En internet se podrán encontra gran cantidad de casos de prácticas editoriales académicas cuestionables, sin embargo, en la bibliografía sobre el tema se suelen mezclar las prácticas depredadoras, con prácticas cuestionables, prácticas no éticas u otros calificativos. Como mencionan Grudniewicz et al. (2019) hasta el momento, no ha existido un consenso claro respecto a las diferencias y los casos en qué aplica uno u otro termino. Para esta nota, las editoriales que se mencionan penden de un hilo muy delgado entre editoriales académicas de calidad y editoriales académicas depredadoras. Entre éstas destacan tres que han adquirido mayor notoriedad por ciertos comportamientos “anómalos”: MDPI, Frontiers y Hindawi (Ansede, 2023; Hanson et al., 2024; Petrou, 2023a) Las cuales no entran directamente en la categoría de depredadoras ya que cuentan con  un amplio catálogo de revistas que se adhieren a The Committee on Publication Ethics (COPE), se indizan en las bases de datos más prestigiosas, cuentan con un respaldo académico importante (tanto de autores, lectores y editores) y manejan políticas de transparencia, entre otros criterios que son considerados positivos. Entonces, ¿Por qué son editoriales académicas cuestionables?  

A continuación, se abordarán los aspectos comunes entre estas revistas, especialmente en sus esquemas de negocios los cuales pueden considerarse prácticas codiciosas. Su principal objetivo es la obtención del dinero, por encima de la calidad y rigurosidad de los artículos. Esto, junto con un modelo que se enfoca en maximizar la cantidad de artículos en sus revistas para generar ganancias, ha sido clave para que sean clasificadas como editoriales cuestionables. 

  1. Acceso abierto dorado: en este modelo los artículos están disponibles en acceso abierto siempre y cuando el autor, o su institución de afiliación, cubran la cuota del Article Procesing Charge (APC). En principio, no habría inconveniente en el cobro de este APC, ya que la publicación académica conlleva costos y alguien lo tiene que asumir. Anteriormente las universidades, bibliotecas u organismos científicos cubrían estos costos mediante la suscripción para consultar los artículos, ahora esta cuota ha pasado a los propios autores1. Es un hecho que muchas editoriales han sabido explotar el modelo de acceso abierto dorado, ya que los cobros suelen ser de varios miles de dólares, lo que ha contribuido a un esquema de hiperinflación que genera ganancias de cientos de millones de dólares al año.
     
  2. Editores invitados:  Desde hace mucho tiempo las editoriales han contado con editores invitados, ya sean académicos individuales, o grupos de expertos para coordinar un número temático especial de sus revistas. Sin embargo, el problema actual consiste en que gran parte de la producción de estas editoriales recae en editores invitados. Christos Petrou (2023b) ha documentado que más del 50% (en algunos casos, el 70%) de los artículos publicados por estas editoriales siguen este modelo. Aquí no debería haber problema alguno, si los editores invitados son expertos del área ¿Por qué preocuparse entonces? El problema surge cuando son tantos editores invitados, que es fácil que el editor principal de la revista pierda el control sobre lo que se publica. Además, algunos editores invitados carecen de experiencia académica necesaria para evaluar los artículos ya que en ocasiones son estudiantes de posgrado. Aceptan coordinar números temáticos fuera de área de especialización, con el fin de acumular méritos académicos. ¿Qué joven investigador no se sentiría orgulloso de figurar como editor invitado en una revista académica de prestigio? Por otro lado, algunos son comprados por “fábricas de artículos” para que acepten cualquier texto sin la debida revisión (más adelante se abordará este punto).

  3. Números especiales: Paolo Crosetto (2021) ofrece el análisis más lúcido de este modelo de números especiales y destaca cómo algunas editoriales, especialmente MDPI, han utilizado los números especiales, gestionados por editores invitados, para aumentar la cantidad de artículos publicados y así obtener mayores ganancias por cobro de APC. La lógica detrás esta práctica es ¿Por qué ganar poco, siendo selectivo, si puedo ganar mucho aceptando casi todo? Para atraer a los académicos, estas editoriales publican números especiales con temas muy variados o específicos que, en condiciones normales, no encajarían en la línea editorial general de la revista.  

Además, editoriales como MDPI, Hindawi y Frontiers manejan tiempos de publicación extremadamente cortos que oscilan entre dos semanas y dos meses, lo que ejerce presión constante sobre editores y revisores. Esto ha generado sospechas sobre la calidad del proceso de revisión por pares. Recientemente, Oviedo García (2024) publicó una nota en la que analiza las revisiones por pares de MDPI, destacando  preocupaciones sobre su calidad, y sugiriendo que la escasa calidad de las revisiones compromete la integridad académica. Como resultado de la combinación de los aspectos arriba mencionados y que conforman los esquemas de publicación de estas editoriales, en enero de 2023, Zhejiang Gonggong University (浙江工商大学) anunció que incluiría a Hindawi, MDPI y Frontiers en una lista negra lo que implicaría que los artículos de autores chinos, publicados en dichas editoriales no se considerarían para evaluación. Además, existe un amplio debate sobre si las publicaciones en las revistas de estas editoriales deberían o no ser incluidas dentro de las evaluaciones académicas institucionales. 

Fábricas de artículos 

Entrando en un terreno más turbio, y retomando brevemente el tema de los editores invitados, encontramos las fábricas de artículos.  Estas son estructuras dedicadas a ofrecer artículos con información falsa o manipulada, así como autorías de artículos, a cambio de una tarifa económica, asegurando la publicación en revistas académicas (COPE y STM, 2022). Estas organizaciones no solo han cooptado a académicos en todo el mundo, sino que también sobornan a editores de revistas o colocan a sus propios agentes en consejos editoriales para garantizar la publicación de los artículos (Joelving & Retraction Watch, 2024). Este sistema se mantiene en funcionamiento debido a la alta demanda de académicos, que, para obtener beneficios económicos o promociones en sus respectivos países, están dispuestos a todo para publicar en revistas indexadas. 

Estas fábricas de artículos también han logrado infiltrar artículos en editoriales como Wiley, Springer, Elsevier, entre otras. Al vender una coautoría, uno de los principales atractivos que ofrecen es la información sobre la base de datos o índices en donde está indexada la revista, como Web of Science o Scopus, así como su cuartil o factor de impacto (ver imagen 1). El costo varía según el cuartil de la revista y la posición como coautor, siendo más costoso aparecer como primer coautor. Un posible efecto de las fábricas de artículos y su fructífero negocio de venta de coautorías es el notable aumento de retractaciones en artículos académicos, que actualmente asciende a casi 10 mil por año (McKie, 2024). 

Imagen 1. Captura de pantalla tomada de una plataforma internacional de búsqueda de coautores que ofrece coautorías de artículos académicos.

A modo de cierre

Como señala Buitrago Ciro (2022) el fenómeno de las conductas no éticas es un tema poco estudiado en Latinoamérica, lo que dificulta medir su prevalencia y generalizar su impacto. Un ejemplo documentado en América Latina es el caso de los científicos Bamba en Perú, que ha llevado al gobierno a tomar medidas de expulsión para quienes compren autorías (Gobierno del Perú, 2024). Además, como mencionan Aguado et al. (2024) las revistas han pasado de ser órganos de comunicación a medios o instrumentos para la evaluación. 

En algunos casos resulta difícil emitir una valoración definitiva, como bibliotecólogo, sobre dónde es adecuado o no publicar. La decisión final recae en los investigadores quienes pueden evaluar el contenido y calidad de las publicaciones en sus áreas de interés. No obstante, sería útil plantearse las siguientes preguntas ¿Por qué quiero publicar en esta revista? ¿Es este el espacio adecuado para que los expertos de mi área lean mi trabajo? 

Lamentablemente, a pesar de la existencia de investigadores y editoriales que demuestran un rigor y ética científica admirable, la comunidad científica se ve ensombrecida por quienes priorizan el lucro sobre el avance del conocimiento, y por estos pocos es que ésta se ve afectada y cada vez más cuestionada por la opinión pública. 

Notas

El caso en América Latina es distinto, históricamente las revistas en esta región han adoptado un modelo de acceso abierto diamante, ya que no cobran a lectores o autores y suelen ser financiadas por universidades, centros de investigación u organismos científicos. 

Referencias bibliográficas

Aguado-López, B., Becerril-García, A., y Godínez-Larios, S. (2024). La Revista Mexicana de Investigación Educativa. Una trayectoria de construcción de comunidades en la educación. Revista Mexicana de Investigación Educativa29(100), 53-87. 

Ansede, M. (2023, octubre 31). La burbuja de las revistas científicas se traga millones de euros de dinero público. El Paíshttps://elpais.com/ciencia/2023-10-31/la-burbuja-de-las-revistas-cientificas-se-traga-millones-de-euros-de-dinero-publico.html 

Buitrago Ciro, J. (2022). ¿Cómo las bibliotecas académicas de Hispanoamérica están informando y ayudando a sus investigadores a combatir el problema de las publicaciones depredadoras? En A. G. Morán Guzmán y S. López Ruelas (Eds.), Desafíos de la comunicación científica: El papel de las bibliotecas y los bibliotecarios (pp. 93-110). Universidad de Guadalajara, Sistema Universitario de Bibliotecas. 

COPE y STM. (2022). Paper mills research. Committee on Publication Ethics and STM. https://doi.org/10.24318/jtbG8IHL 

Crosetto, P. (2021, abril 12). Is MDPI a predatory publisher? Paolo Crosettohttps://paolocrosetto.wordpress.com/2021/04/12/is-mdpi-a-predatory-publisher/ 

Gobierno del Perú. (2024). Investigadores que compren autorías serán expulsados del Sistema Nacional de Ciencia Tecnología e Innovación y multados con hasta 320 UIThttps://www.gob.pe/institucion/concytec/noticias/976736-investigadores-que-compren-autorias-seran-expulsados-del-sistema-nacional-de-ciencia-tecnologia-e-innovacion-y-multados-con-hasta-320-uit 

Grudniewicz, A. [et al.] (2019). Predatory journals: No definition, no defence. Nature576(7786), 210-212. https://doi.org/10.1038/d41586-019-03759-y 

Hanson, M. A., Barreiro, P. G., Crosetto, P., y Brockington, D. (2024). The strain on scientific publishing. Quantitative Science Studies, 1-29. https://doi.org/10.1162/qss_a_00327 

Joelving, F., y Retraction Watch. (2024). Paper trail. Science383(6680), 252-255. https://doi.org/10.1126/science.ado0309 

Latina Noticias (Director). (2023, octubre 29). La granja de los científicos bamba: Docentes pagan por coautorías de estudios en el extranjero [Video] YouTube. https://www.youtube.com/watch?v=zyQVw1IHTEM 

Kincaid, A. E. (2023, mayo 8). Article that assessed MDPI journals as “predatory” retracted and replaced. Retraction Watchhttps://retractionwatch.com/2023/05/08/article-that-assessed-mdpi-journals-as-predatory-retracted-and-replaced/ 

McKie, R. (2024, febrero 3). ‘The situation has become appalling’: Fake scientific papers push research credibility to crisis point. The Observerhttps://www.theguardian.com/science/2024/feb/03/the-situation-has-become-appalling-fake-scientific-papers-push-research-credibility-to-crisis-point 

Oviedo García, M. A. (2024, enero 12). Review Mill at MDPI. Predatory Journals. https://predatoryjournals.org/news/f/review-mill-at-mdpi 

Petrou, C. (2023a, marzo 30). Guest Post – Of Special Issues and Journal Purges. The Scholarly Kitchen. https://scholarlykitchen.sspnet.org/2023/03/30/guest-post-of-special-issues-and-journal-purges/ 

Petrou, C. (2023b, septiembre 18). Guest Post—Reputation and Publication Volume at MDPI and Frontiers. The Scholarly Kitchen. https://scholarlykitchen.sspnet.org/2023/09/18/guest-post-reputation-and-publication-volume-at-mdpi-and-frontiers-the-1b-question/ 


lunes, 6 de enero de 2025

[ IA y Revisión por pares ] Si se escribe con IA... ¿La revisión de los escrito también debe usar la IA?

Publicado en blog Impact of Social Sciences (London School of Economics-LSE)
https://blogs.lse.ac.uk/impactofsocialsciences/2024/09/25/if-generative-ai-accelerates-science-peer-review-needs-to-catch-up/ 



Simone Ragavooloo


25 de septiembre de 2024


Si la IA generativa acelera la ciencia, la revisión por pares debe ponerse al día



Cada vez hay más estudios que demuestran el uso generalizado de la IA generativa en las publicaciones de investigación. Ante el consiguiente aumento del número de publicaciones, Simone Ragavooloo argumenta que los editores y revisores deberían adoptar herramientas de IA para realizar el trabajo pesado de la revisión estadística y metodológica y permitirles centrarse en áreas que requieren experiencia humana.


La inteligencia artificial está transformando la ciencia y la edición científica debe seguir el ritmo de este cambio. El informe Top 10 Emerging Technologies of 2024 del Foro Económico Mundial destaca los miles de millones de fondos que se están invirtiendo en IA sólo en el ámbito de los descubrimientos científicos.


La IA ya se aplica ampliamente en la investigación, desde el descubrimiento de nuevas familias de antibióticos hasta el estudio de innumerables fenómenos sociales y culturales. El Consejo de Asesores sobre Ciencia y Tecnología del Presidente de Estados Unidos (PCAST) ha declarado que «la IA tiene el potencial de transformar todas las disciplinas científicas y muchos aspectos de la forma en que hacemos ciencia». El potencial transformador de la IA no sólo reside en cómo investigamos, sino en cuánta investigación científica producimos, como se reconoce en el informe de la OCDE 2023 Artificial Intelligence in Science: «aumentar la productividad de la investigación podría ser el más valioso económica y socialmente de todos los usos de la IA». Por favor denos unos días más para intentar tener una opinión más consolidada


Los editores deben ahora adaptarse e innovar como lo hicieron durante el paso de lo impreso a lo digital a finales del siglo XX. Sin embargo, la revisión por pares supone un reto para estas visiones. Se calcula que en 2020 se dedicarán 100 millones de horas a la revisión por pares, una cifra que podría aumentar exponencialmente si no se apoya a los revisores. Dado que algunos ya consideran que el sistema actual funciona al límite de su capacidad, Lisa Messeri y M. J. Crockett afirman que una «ciencia a gran escala» basada en la inteligencia artificial podría provocar una «ilusión de comprensión», en la que un aumento significativo de la productividad y los resultados científicos no se viera correspondido por la perspicacia y el criterio humanos.


Una de las respuestas es combinar lo similar con lo similar. Para liberar la experiencia de los revisores humanos, necesitamos desarrollar y confiar más en las herramientas de revisión por pares y de integridad de la investigación basadas en IA para que hagan el trabajo pesado. El primer paso es evitar que la ciencia fraudulenta o simplemente «mala» entre en el proceso de revisión por pares. La situación de la integridad de la investigación es análoga al uso que hacen la ciberseguridad y el sector financiero de la IA para combatir el fuego con fuego. Estas aplicaciones ponen de relieve la capacidad de la IA para procesar grandes cantidades de datos e identificar anomalías a un ritmo que no puede igualar la detección humana. De hecho, ya existen herramientas de IA en la integridad de la investigación, AIRA de Frontiers se puso en línea ya en 2018 y ahora se une a una serie de herramientas de IA que abordan diversos aspectos del fraude en la investigación. La Asociación Internacional de Editores Científicos, Técnicos y Médicos (STM) creó recientemente el Centro de Integridad STM para agregar y aprovechar estas innovaciones tecnológicas en los editores de investigación. 


Por muy positivas que sean estas medidas de las editoriales para proteger la integridad de la investigación, el mayor reto al que se enfrentan las editoriales en relación con la IA no son las prácticas malignas de unos pocos, sino la adopción positiva de herramientas de IA para hacer avanzar y agilizar la investigación por parte de muchos.  


Entonces, ¿qué hay que hacer? Las editoriales deben superar las limitaciones iniciales de la IA y los primeros grandes modelos lingüísticos (incluidos los datos disponibles para entrenar estos LLM) y aprovechar el potencial de la revisión por pares basada en la IA. Los datos abiertos son un primer ejemplo de esta tendencia. Los datos abiertos, un principio básico del movimiento de la ciencia abierta, permiten a la IA en el descubrimiento científico establecer la conexión entre los datos interoperables producidos por diferentes equipos de investigación.  A medida que los datos científicos obtenidos mediante IA se hacen más grandes y complejos, la tarea clave de los revisores de detectar errores metodológicos y estadísticos en las presentaciones se vuelve más exigente. Una situación que a menudo se ve agravada por la falta de formación y conocimientos estadísticos avanzados de algunos investigadores. Por lo tanto, la combinación de IA con ciencia abierta/datos abiertos tiene el potencial de aumentar los descubrimientos científicos y la innovación, pero también crea combinaciones más complejas de datos y más riesgo de que se introduzcan fallos en los conjuntos de datos.


Por poner un ejemplo real, un equipo científico líder produjo datos originales con buena intención, utilizando el aprendizaje automático para identificar microbiomas asociados al cáncer. El escrutinio por pares posterior a la publicación identificó problemas con los datos y señaló la «avalancha» de estudios posteriores que utilizaron estos datos creyéndolos sólidos. A ello siguieron retractaciones e investigaciones relacionadas.  Desde el punto de vista del editor y de la revisión por pares, la pregunta es cómo se pudo evitar que los datos entraran en el registro científico. A este respecto, todavía nos encontramos en un periodo de transición, en el que los investigadores y editores siguen aprendiendo de este tipo de incidentes y adaptando las metodologías de investigación y los protocolos de revisión por pares a medida que se generaliza el uso de la IA y los LLM en la investigación.   


Las editoriales tienen la escala y la experiencia tecnológica para experimentar y desarrollar herramientas en este ámbito. A medida que aumentan las aplicaciones de la IA en la investigación científica, no es deseable ni factible confiar en un pequeño grupo de revisores estadísticos para hacer el trabajo pesado con datos cada vez más complejos producidos a un ritmo más rápido.  Las herramientas de los editores deberían ayudar tanto a los autores como a los revisores detectando automáticamente y con precisión errores o anomalías estadísticas, sugiriendo métodos estadísticos apropiados y proporcionando un análisis preliminar de los datos de los investigadores. Si logramos esto, incluso con grandes conjuntos de datos generados por IA, el proceso de revisión seguirá siendo sólido pero racionalizado, liberando a los revisores humanos para que se centren en otros aspectos críticos del manuscrito.


Hay dos cosas claras. En primer lugar, la revisión por pares no puede mantenerse en su estado actual a medida que la IA aumenta la producción científica. En segundo lugar, a medida que crece el volumen de la investigación, la colaboración, así como la innovación, son esenciales para proteger el discurso científico y la integridad del registro científico. ¿Qué aspecto tiene la cooperación entre publicaciones e investigaciones, desde la mesa del laboratorio hasta la página del editor, y cómo podemos impulsarla? ¿Podemos desarrollar herramientas de inteligencia artificial lo suficientemente avanzadas como para detectar grandes volúmenes de datos defectuosos antes de que se incorporen al registro científico? ¿Cómo funcionaría un sistema de alerta para todos los editores (similar a las alertas de ciberseguridad) para compartir información que impida la difusión de datos y análisis erróneos?


La IA en la ciencia y la edición se encuentra en sus primeras fases, pero ya es una realidad que hay que abordar y seguir desarrollando.  Juntos debemos abrir el camino hacia el potencial de la IA en la innovación científica. 



Sobre la autora

Simone Ragavooloo


Simone Ragavooloo es experta en integridad de la investigación y asesora del Comité de Ética de las Publicaciones (COPE). Su trabajo se centra en ayudar a los editores a formular y aplicar políticas que promuevan la integridad de la investigación y eleven las normas éticas de publicación. Es una firme defensora del papel fundamental que desempeñan los editores en la formulación de políticas y la influencia en la conducta ética dentro de la comunidad investigadora. Simone ha ocupado puestos relacionados en BMJ y Springer Nature y actualmente aporta su experiencia en Frontiers como Directora de Cartera de Integridad de la Investigación. 



****************


Simone Ragavooloo

September 25th, 2024

If generative AI accelerates science, peer review needs to catch up



Studies have increasingly shown the widespread use of generative AI in research publications. Faced with the consequent uptick in the number of publications, Simone Ragavooloo argues that editors and reviewers should embrace AI tools to undertake the heavy lifting of statistical and methodological review and to allow them to focus on areas that require human expertise.

Artificial Intelligence is transforming science and science publishing must keep pace with this change. The World Economic Forum’s Top 10 Emerging Technologies of 2024 report highlights the billions of funding being ploughed into AI in scientific discovery alone.

AI is now already widely applied in research, from discovering new families of antibiotics to studying myriad social and cultural phenomena. The United States’ President’s Council of Advisors on Science and Technology (PCAST) has stated “AI has the potential to transform every scientific discipline and many aspects of the way we conduct science.” AI’s transformative potential lies not only in how we do research, but in how much scientific research we produce, as recognised in the OECD’s 2023 Artificial Intelligence in Science report: “raising the productivity of research could be the most economically and socially valuable of all the uses of AI”.

Publishers must now adapt and innovate just as they did during the shift from print to digital at the end of the 20th century. However, peer review presents a challenge to these visions. 100 million hours were estimated to be spent on peer review in 2020, a figure that could rise exponentially if reviewers are not supported. Given that the current system is already viewed by some as working at capacity, Lisa Messeri and M J. Crockett have argued an AI-enabled ‘science-at-volume’ could lead to the ‘illusion of understanding’, whereby a significant escalation in scientific productivity and output is not matched by human insight and judgement.

One answer is to meet like with like. To free up human reviewer expertise, we need to develop and trust more in AI-enabled peer review and research integrity tools to do the heavy lifting. Preventing fraudulent and plain, old ‘bad’ science entering the peer review process is the first step. The situation in research integrity is analogous here with cyber security’s and the finance sector’s use of AI to fight fire with fire. These applications highlight AI’s capability to process vast amounts of data and identify anomalies at a rate that cannot be matched by human detection. Indeed, AI-tools in research integrity already exist, Frontiers’ AIRA came online as early as 2018 and is now joined by an array of AI-tools tackling various aspects of research fraud. The International Association of Scientific, Technical and Medical Publishers (STM) recently created the STM Integrity Hub to aggregate and harness such technological innovations across research publishers.  

Positive as these steps are by publishers to protect research integrity, the greatest challenge facing publishers in relation to AI is not malign practices by the few, but the positive adoption of AI tools to advance and expediate research by the many.

So, what is to be done? Publishers need to get past initial limitations with AI and early large language models (including the data available to train these LLMs) and realise the potential of AI-enabled peer review. Open data is an early example of this trend. A core tenet of the open science movement, open data enables AI-in-scientific-discovery to make the connection between interoperable data produced by different research teams.  As AI-enabled scientific data becomes bigger and more complex, the key reviewer task of spotting methodological and statistical errors in submissions becomes more demanding. A situation that is often exacerbated by the lack of advanced statistical training and expertise for some researchers. The combination of AI with open science/open data therefore has the potential to increase scientific discovery and innovation, but it also creates more complex combinations of data and more risk of flaws being introduced to datasets.   

To give a real-world example, a-leading science team produced original data with good intent, using machine-learning to identify microbiomes associated with cancer. Post-publication peer scrutiny identified problems with the data and pointed to the “flurry” of subsequent studies that used this data believing it to be sound. Retractions and related investigations followed.  From a publisher and peer review perspective, the question is how the data could have been prevented from entering the scientific record? In this respect, we are all still in the transitional period, where researchers and publishers continue to learn from such incidents and adapt research methodologies and peer-review protocols as the use of AI and LLMs in research becomes widespread.

Publishers have the scale and technological expertise to experiment and develop tools in this space. As more applications of AI in scientific research come online, it is neither desirable nor feasible to rely on a small pool of statistical reviewers to do the heavy lifting with evermore complex data produced at a faster rate.  Publishers’ tools should assist both authors and reviewers by automatically and accurately detecting statistical errors or anomalies, suggesting appropriate statistical methods, and providing a preliminary analysis of researchers’ data. If we can achieve this, then even with big, AI-generated datasets, the review process will remain robust but streamlined, freeing up human reviewers to focus on other critical aspects of the manuscript.  

Two things are clear. First, peer review cannot be sustained in its current state as AI increases science output. Second, as the volume of research grows, collaboration, as well as innovation, is essential to protect scientific discourse and the integrity of the scientific record. What does cross-publishing, cross-research cooperation look like, from the lab bench to publisher’s page and how do we drive it forward? Can we develop AI tools advanced enough to catch faulty big data before it enters the scientific record? How would a publisher-wide alert system (not dissimilar to cyber security alerts) work, to share intelligence that stops flawed data and analysis from spreading?

AI in science and publishing is in its early stages, but it is already a reality that needs to be addressed and further developed.  Together, we should provide an open path forward to the potential of AI in scientific innovation.  


About the author

Simone Ragavooloo

Simone Ragavooloo is an experienced Research Integrity expert and advisor for the Committee on Publication Ethics (COPE). Her work is focused on supporting publishers to form and implement policies that advance research integrity and elevate publication ethics standards. She is a vocal proponent of the critical role publishers play in shaping policy and influencing ethical conduct within the research community. Simone has held related positions at BMJ and Springer Nature and currently contributes her expertise at Frontiers as Research Integrity Portfolio Manager. 


«Manifiesto de científicos contra el rearme» : Firmas en apoyo a campaña de científicos contra del rearme de la Unión Europea

Publicado en  sinpermiso https://sinpermiso.info/textos/los-cientificos-se-unen-en-contra-del-rearme-de-la-ue Los científicos se unen en con...