Mostrando entradas con la etiqueta Edición académica. Mostrar todas las entradas
Mostrando entradas con la etiqueta Edición académica. Mostrar todas las entradas

lunes, 6 de enero de 2025

[ IA y Revisión por pares ] Si se escribe con IA... ¿La revisión de los escrito también debe usar la IA?

Publicado en blog Impact of Social Sciences (London School of Economics-LSE)
https://blogs.lse.ac.uk/impactofsocialsciences/2024/09/25/if-generative-ai-accelerates-science-peer-review-needs-to-catch-up/ 



Simone Ragavooloo


25 de septiembre de 2024


Si la IA generativa acelera la ciencia, la revisión por pares debe ponerse al día



Cada vez hay más estudios que demuestran el uso generalizado de la IA generativa en las publicaciones de investigación. Ante el consiguiente aumento del número de publicaciones, Simone Ragavooloo argumenta que los editores y revisores deberían adoptar herramientas de IA para realizar el trabajo pesado de la revisión estadística y metodológica y permitirles centrarse en áreas que requieren experiencia humana.


La inteligencia artificial está transformando la ciencia y la edición científica debe seguir el ritmo de este cambio. El informe Top 10 Emerging Technologies of 2024 del Foro Económico Mundial destaca los miles de millones de fondos que se están invirtiendo en IA sólo en el ámbito de los descubrimientos científicos.


La IA ya se aplica ampliamente en la investigación, desde el descubrimiento de nuevas familias de antibióticos hasta el estudio de innumerables fenómenos sociales y culturales. El Consejo de Asesores sobre Ciencia y Tecnología del Presidente de Estados Unidos (PCAST) ha declarado que «la IA tiene el potencial de transformar todas las disciplinas científicas y muchos aspectos de la forma en que hacemos ciencia». El potencial transformador de la IA no sólo reside en cómo investigamos, sino en cuánta investigación científica producimos, como se reconoce en el informe de la OCDE 2023 Artificial Intelligence in Science: «aumentar la productividad de la investigación podría ser el más valioso económica y socialmente de todos los usos de la IA». Por favor denos unos días más para intentar tener una opinión más consolidada


Los editores deben ahora adaptarse e innovar como lo hicieron durante el paso de lo impreso a lo digital a finales del siglo XX. Sin embargo, la revisión por pares supone un reto para estas visiones. Se calcula que en 2020 se dedicarán 100 millones de horas a la revisión por pares, una cifra que podría aumentar exponencialmente si no se apoya a los revisores. Dado que algunos ya consideran que el sistema actual funciona al límite de su capacidad, Lisa Messeri y M. J. Crockett afirman que una «ciencia a gran escala» basada en la inteligencia artificial podría provocar una «ilusión de comprensión», en la que un aumento significativo de la productividad y los resultados científicos no se viera correspondido por la perspicacia y el criterio humanos.


Una de las respuestas es combinar lo similar con lo similar. Para liberar la experiencia de los revisores humanos, necesitamos desarrollar y confiar más en las herramientas de revisión por pares y de integridad de la investigación basadas en IA para que hagan el trabajo pesado. El primer paso es evitar que la ciencia fraudulenta o simplemente «mala» entre en el proceso de revisión por pares. La situación de la integridad de la investigación es análoga al uso que hacen la ciberseguridad y el sector financiero de la IA para combatir el fuego con fuego. Estas aplicaciones ponen de relieve la capacidad de la IA para procesar grandes cantidades de datos e identificar anomalías a un ritmo que no puede igualar la detección humana. De hecho, ya existen herramientas de IA en la integridad de la investigación, AIRA de Frontiers se puso en línea ya en 2018 y ahora se une a una serie de herramientas de IA que abordan diversos aspectos del fraude en la investigación. La Asociación Internacional de Editores Científicos, Técnicos y Médicos (STM) creó recientemente el Centro de Integridad STM para agregar y aprovechar estas innovaciones tecnológicas en los editores de investigación. 


Por muy positivas que sean estas medidas de las editoriales para proteger la integridad de la investigación, el mayor reto al que se enfrentan las editoriales en relación con la IA no son las prácticas malignas de unos pocos, sino la adopción positiva de herramientas de IA para hacer avanzar y agilizar la investigación por parte de muchos.  


Entonces, ¿qué hay que hacer? Las editoriales deben superar las limitaciones iniciales de la IA y los primeros grandes modelos lingüísticos (incluidos los datos disponibles para entrenar estos LLM) y aprovechar el potencial de la revisión por pares basada en la IA. Los datos abiertos son un primer ejemplo de esta tendencia. Los datos abiertos, un principio básico del movimiento de la ciencia abierta, permiten a la IA en el descubrimiento científico establecer la conexión entre los datos interoperables producidos por diferentes equipos de investigación.  A medida que los datos científicos obtenidos mediante IA se hacen más grandes y complejos, la tarea clave de los revisores de detectar errores metodológicos y estadísticos en las presentaciones se vuelve más exigente. Una situación que a menudo se ve agravada por la falta de formación y conocimientos estadísticos avanzados de algunos investigadores. Por lo tanto, la combinación de IA con ciencia abierta/datos abiertos tiene el potencial de aumentar los descubrimientos científicos y la innovación, pero también crea combinaciones más complejas de datos y más riesgo de que se introduzcan fallos en los conjuntos de datos.


Por poner un ejemplo real, un equipo científico líder produjo datos originales con buena intención, utilizando el aprendizaje automático para identificar microbiomas asociados al cáncer. El escrutinio por pares posterior a la publicación identificó problemas con los datos y señaló la «avalancha» de estudios posteriores que utilizaron estos datos creyéndolos sólidos. A ello siguieron retractaciones e investigaciones relacionadas.  Desde el punto de vista del editor y de la revisión por pares, la pregunta es cómo se pudo evitar que los datos entraran en el registro científico. A este respecto, todavía nos encontramos en un periodo de transición, en el que los investigadores y editores siguen aprendiendo de este tipo de incidentes y adaptando las metodologías de investigación y los protocolos de revisión por pares a medida que se generaliza el uso de la IA y los LLM en la investigación.   


Las editoriales tienen la escala y la experiencia tecnológica para experimentar y desarrollar herramientas en este ámbito. A medida que aumentan las aplicaciones de la IA en la investigación científica, no es deseable ni factible confiar en un pequeño grupo de revisores estadísticos para hacer el trabajo pesado con datos cada vez más complejos producidos a un ritmo más rápido.  Las herramientas de los editores deberían ayudar tanto a los autores como a los revisores detectando automáticamente y con precisión errores o anomalías estadísticas, sugiriendo métodos estadísticos apropiados y proporcionando un análisis preliminar de los datos de los investigadores. Si logramos esto, incluso con grandes conjuntos de datos generados por IA, el proceso de revisión seguirá siendo sólido pero racionalizado, liberando a los revisores humanos para que se centren en otros aspectos críticos del manuscrito.


Hay dos cosas claras. En primer lugar, la revisión por pares no puede mantenerse en su estado actual a medida que la IA aumenta la producción científica. En segundo lugar, a medida que crece el volumen de la investigación, la colaboración, así como la innovación, son esenciales para proteger el discurso científico y la integridad del registro científico. ¿Qué aspecto tiene la cooperación entre publicaciones e investigaciones, desde la mesa del laboratorio hasta la página del editor, y cómo podemos impulsarla? ¿Podemos desarrollar herramientas de inteligencia artificial lo suficientemente avanzadas como para detectar grandes volúmenes de datos defectuosos antes de que se incorporen al registro científico? ¿Cómo funcionaría un sistema de alerta para todos los editores (similar a las alertas de ciberseguridad) para compartir información que impida la difusión de datos y análisis erróneos?


La IA en la ciencia y la edición se encuentra en sus primeras fases, pero ya es una realidad que hay que abordar y seguir desarrollando.  Juntos debemos abrir el camino hacia el potencial de la IA en la innovación científica. 



Sobre la autora

Simone Ragavooloo


Simone Ragavooloo es experta en integridad de la investigación y asesora del Comité de Ética de las Publicaciones (COPE). Su trabajo se centra en ayudar a los editores a formular y aplicar políticas que promuevan la integridad de la investigación y eleven las normas éticas de publicación. Es una firme defensora del papel fundamental que desempeñan los editores en la formulación de políticas y la influencia en la conducta ética dentro de la comunidad investigadora. Simone ha ocupado puestos relacionados en BMJ y Springer Nature y actualmente aporta su experiencia en Frontiers como Directora de Cartera de Integridad de la Investigación. 



****************


Simone Ragavooloo

September 25th, 2024

If generative AI accelerates science, peer review needs to catch up



Studies have increasingly shown the widespread use of generative AI in research publications. Faced with the consequent uptick in the number of publications, Simone Ragavooloo argues that editors and reviewers should embrace AI tools to undertake the heavy lifting of statistical and methodological review and to allow them to focus on areas that require human expertise.

Artificial Intelligence is transforming science and science publishing must keep pace with this change. The World Economic Forum’s Top 10 Emerging Technologies of 2024 report highlights the billions of funding being ploughed into AI in scientific discovery alone.

AI is now already widely applied in research, from discovering new families of antibiotics to studying myriad social and cultural phenomena. The United States’ President’s Council of Advisors on Science and Technology (PCAST) has stated “AI has the potential to transform every scientific discipline and many aspects of the way we conduct science.” AI’s transformative potential lies not only in how we do research, but in how much scientific research we produce, as recognised in the OECD’s 2023 Artificial Intelligence in Science report: “raising the productivity of research could be the most economically and socially valuable of all the uses of AI”.

Publishers must now adapt and innovate just as they did during the shift from print to digital at the end of the 20th century. However, peer review presents a challenge to these visions. 100 million hours were estimated to be spent on peer review in 2020, a figure that could rise exponentially if reviewers are not supported. Given that the current system is already viewed by some as working at capacity, Lisa Messeri and M J. Crockett have argued an AI-enabled ‘science-at-volume’ could lead to the ‘illusion of understanding’, whereby a significant escalation in scientific productivity and output is not matched by human insight and judgement.

One answer is to meet like with like. To free up human reviewer expertise, we need to develop and trust more in AI-enabled peer review and research integrity tools to do the heavy lifting. Preventing fraudulent and plain, old ‘bad’ science entering the peer review process is the first step. The situation in research integrity is analogous here with cyber security’s and the finance sector’s use of AI to fight fire with fire. These applications highlight AI’s capability to process vast amounts of data and identify anomalies at a rate that cannot be matched by human detection. Indeed, AI-tools in research integrity already exist, Frontiers’ AIRA came online as early as 2018 and is now joined by an array of AI-tools tackling various aspects of research fraud. The International Association of Scientific, Technical and Medical Publishers (STM) recently created the STM Integrity Hub to aggregate and harness such technological innovations across research publishers.  

Positive as these steps are by publishers to protect research integrity, the greatest challenge facing publishers in relation to AI is not malign practices by the few, but the positive adoption of AI tools to advance and expediate research by the many.

So, what is to be done? Publishers need to get past initial limitations with AI and early large language models (including the data available to train these LLMs) and realise the potential of AI-enabled peer review. Open data is an early example of this trend. A core tenet of the open science movement, open data enables AI-in-scientific-discovery to make the connection between interoperable data produced by different research teams.  As AI-enabled scientific data becomes bigger and more complex, the key reviewer task of spotting methodological and statistical errors in submissions becomes more demanding. A situation that is often exacerbated by the lack of advanced statistical training and expertise for some researchers. The combination of AI with open science/open data therefore has the potential to increase scientific discovery and innovation, but it also creates more complex combinations of data and more risk of flaws being introduced to datasets.   

To give a real-world example, a-leading science team produced original data with good intent, using machine-learning to identify microbiomes associated with cancer. Post-publication peer scrutiny identified problems with the data and pointed to the “flurry” of subsequent studies that used this data believing it to be sound. Retractions and related investigations followed.  From a publisher and peer review perspective, the question is how the data could have been prevented from entering the scientific record? In this respect, we are all still in the transitional period, where researchers and publishers continue to learn from such incidents and adapt research methodologies and peer-review protocols as the use of AI and LLMs in research becomes widespread.

Publishers have the scale and technological expertise to experiment and develop tools in this space. As more applications of AI in scientific research come online, it is neither desirable nor feasible to rely on a small pool of statistical reviewers to do the heavy lifting with evermore complex data produced at a faster rate.  Publishers’ tools should assist both authors and reviewers by automatically and accurately detecting statistical errors or anomalies, suggesting appropriate statistical methods, and providing a preliminary analysis of researchers’ data. If we can achieve this, then even with big, AI-generated datasets, the review process will remain robust but streamlined, freeing up human reviewers to focus on other critical aspects of the manuscript.  

Two things are clear. First, peer review cannot be sustained in its current state as AI increases science output. Second, as the volume of research grows, collaboration, as well as innovation, is essential to protect scientific discourse and the integrity of the scientific record. What does cross-publishing, cross-research cooperation look like, from the lab bench to publisher’s page and how do we drive it forward? Can we develop AI tools advanced enough to catch faulty big data before it enters the scientific record? How would a publisher-wide alert system (not dissimilar to cyber security alerts) work, to share intelligence that stops flawed data and analysis from spreading?

AI in science and publishing is in its early stages, but it is already a reality that needs to be addressed and further developed.  Together, we should provide an open path forward to the potential of AI in scientific innovation.  


About the author

Simone Ragavooloo

Simone Ragavooloo is an experienced Research Integrity expert and advisor for the Committee on Publication Ethics (COPE). Her work is focused on supporting publishers to form and implement policies that advance research integrity and elevate publication ethics standards. She is a vocal proponent of the critical role publishers play in shaping policy and influencing ethical conduct within the research community. Simone has held related positions at BMJ and Springer Nature and currently contributes her expertise at Frontiers as Research Integrity Portfolio Manager. 


domingo, 5 de enero de 2025

Los editores de Journal of Human Evolution dimiten en masa en protesta por los cambios de Elsevier

Publicado en Retraction Watch
https://retractionwatch.com/2024/12/27/evolution-journal-editors-resign-en-masse-to-protest-elsevier-changes/ 


Los editores de Journal of Human Evolution dimiten en masa en protesta por los cambios de Elsevier


Todos los miembros del consejo editorial de Journal of Human Evolution (JHE), una publicación de Elsevier, menos uno, han dimitido, afirmando que «las continuas acciones de Elsevier son fundamentalmente incompatibles con el espíritu de la revista e impiden mantener la calidad y la integridad fundamentales para el éxito de JHE». 


«Elsevier ha erosionado constantemente la infraestructura esencial para el éxito de la revista, socavando al mismo tiempo los principios básicos y las prácticas que han guiado con éxito la revista durante los últimos 38 años», dijeron los “editores en jefe conjuntos, todos los editores eméritos jubilados o activos en el campo, y todos menos un editor asociado” en su declaración de renuncia publicada ayer en X/Twitter.


Entre otras medidas, según el comunicado, Elsevier «eliminó el apoyo a un editor de textos y a un editor de números especiales», lo que interpretaron como que «los editores no deben prestar atención al lenguaje, la gramática, la legibilidad, la coherencia o la exactitud de la nomenclatura o el formato adecuados». Los editores dicen que el editor «con frecuencia introduce errores durante la producción que no estaban presentes en el manuscrito aceptado:» 


En otoño de 2023, por ejemplo, sin consultar ni informar a los editores, Elsevier inició el uso de IA durante la producción, creando pruebas de artículos desprovistas de mayúsculas en todos los nombres propios (por ejemplo, épocas formalmente reconocidas, nombres de sitios, países, ciudades, géneros, etc.), así como cursivas para géneros y especies. Estos cambios en la IA revirtieron las versiones aceptadas de trabajos que ya habían sido formateados correctamente por los editores encargados de su manipulación. Esto fue muy embarazoso para la revista y su resolución llevó seis meses y sólo se consiguió gracias a los persistentes esfuerzos de los editores. El procesamiento IA sigue utilizándose y reformatea regularmente los manuscritos enviados para cambiar el significado y el formato y requiere una amplia supervisión del autor y del editor durante la fase de pruebas.


Los editores que dimitieron también afirmaron que Elsevier «asumió unilateralmente el control total» de la «estructura y composición científica» del consejo editorial al exigir a todos los editores que firmaran un nuevo contrato cada año», lo que provocó una disminución del número de editores asociados. El editor también «indicó que ya no apoyaría el modelo de doble editor [en jefe] que ha sido un sello distintivo de JHE desde 1986», según la declaración. «Cuando los editores se opusieron vehementemente a esta acción, Elsevier dijo que apoyaría un modelo de doble editor reduciendo la tasa de compensación a la mitad».


Los editores también expresaron su preocupación por los gastos de procesamiento de artículos en la revista, de 3.990 dólares, que «siguen estando fuera del alcance de gran parte de nuestros autores» y son hasta el doble de los «de revistas publicadas por Elsevier comparables en cuanto a disciplina».


Los intentos de obtener comentarios de Elsevier y de conocer el nombre del editor asociado que no dimitió de los recientemente dimitidos editores jefe se encontraron con respuestas de vacaciones fuera de la oficina. Actualizaremos este post con todo lo que sepamos.


La dimisión masiva es el vigésimo episodio de este tipo desde principios de 2023, según nuestros registros. A principios de año, Nature se preguntaba: «¿qué se consigue con estas salidas en grupo?».


///////////////////////////////////

Evolution journal editors resign en masse to protest Elsevier changes


All but one member of the editorial board of the Journal of Human Evolution (JHE), an Elsevier title, have resigned, saying the “sustained actions of Elsevier are fundamentally incompatible with the ethos of the journal and preclude maintaining the quality and integrity fundamental to JHE’s success.” 

“Elsevier has steadily eroded the infrastructure essential to the success of the journal while simultaneously undermining the core principles and practices that have successfully guided the journal for the past 38 years,” the journal’s “joint Editors-in-Chief, all Emeritus Editors retired or active in the field, and all but one Associate Editor” said in their resignation statement posted to X/Twitter yesterday.  

Among other moves, according to the statement, Elsevier “eliminated support for a copy editor and special issues editor,” which they interpreted as saying “editors should not be paying attention to language, grammar, readability, consistency, or accuracy of proper nomenclature or formatting.” The editors say the publisher “frequently introduces errors during production that were not present in the accepted manuscript:”  

In fall of 2023, for example, without consulting or informing the editors, Elsevier initiated the use of AI during production, creating article proofs devoid of capitalization of all proper nouns (e.g., formally recognized epochs, site names, countries, cities, genera, etc.) as well italics for genera and species. These AI changes reversed the accepted versions of papers that had already been properly formatted by the handling editors. This was highly embarrassing for the journal and resolution took six months and was achieved only through the persistent efforts of the editors. AI processing continues to be used and regularly reformats submitted manuscripts to change meaning and formatting and require extensive author and editor oversight during proof stage. 

The resigning editors also said Elsevier “unilaterally took full control over” the editorial board’s “scientific structure and composition” by requiring all editors sign a new contract every year,” leading to a decline in the number of associate editors. The publisher also “indicated it would no longer support the dual-editor [in chief] model that has been a hallmark of JHE since 1986,” according to the statement. “When the editors vehemently opposed this action, Elsevier said it would support a dual-editor model by cutting the compensation rate by half.”

Editors also raised concerns about article processing charges at the journal of $3,990 that “remain out of reach for much of our authorship” and are as much as twice those “of discipline-comparable Elsevier-published journals.”

Attempts to seek comment from Elsevier and to learn the name of the associate editor who did not resign from the recently resigned editors in chief were met with holiday out-of-office replies. We will update this post with anything we learn.

The mass resignation is the 20th such episode since early 2023, according to our records. Earlier this year, Nature asked, “what do these group exits achieve?”

jueves, 26 de septiembre de 2024

PEER REVIEW E INTELIGENCIA ARTIFICIAL

Investiga. Monográficos sobre investigación. Biblioteca de la Universidad de Sevilla
https://bib.us.es/sites/bib3.us.es/files/investiga_sept_2024.pdf#page=1


PEER REVIEW E INTELIGENCIA ARTIFICIAL

Introducción

Desafíos del peer review: un instrumento tan necesario como molesto

Peer review e inteligencia artificial

Cómo ayuda la IA a la revisión por pares

Bibliografía

Novedades


Introducción


Por segundo año consecutivo, la Biblioteca de la Universidad de Sevilla se adhiere a la iniciativa Peer Review Week. Durante la semana del 23 al 27 de septiembre de 2024, este evento anual celebrará y redundará en el valor de la revisión por pares que reúne a las partes interesadas en la comunicación académica, incluidos editores académicos, asociaciones, instituciones y personal investigador.


Este año, esta semana está dedicada al tema “Innovación y tecnología en la revisión por pares”, con lo que se pretende debatir sobre asuntos como los siguientes:


• ¿Se puede utilizar la IA de forma que complemente el valor que aporta el revisor?


• ¿Cómo se puede utilizar para ampliar el grupo de revisores y ofrecer igualdad de

oportunidades a los académicos de países subrepresentados?


• ¿Es posible abordar la crisis de integridad de la investigación en la industria con la ayuda de nuevos enfoques y tecnologías?


• De cara al futuro, ¿podemos esperar un enfoque más colaborativo en el que la tecnología complemente la experiencia humana en la revisión por pares?

Como ya hicimos el pasado año con el monográfico INVESTIGA sobre "Peer Review y Ciencia Abierta", volvemos a colaborar en el debate abierto por la Peer Review Week con este monográfico sobre nuevas tecnologías y aplicaciones en la revisión por pares, en la que abarcaremos diferentes aspectos en los que la tecnología puede ayudar a la revisión por pares, centrándonos, especialmente, en cómo afecta la aparición de la inteligencia artificial generativa en este proceso.


Recomendamos, además, seguir las actividades de la Semana de Revisión por Pares 2024 anunciadas en su web, así como seguir las últimas novedades en las redes sociales a través de @PeerRevWeek y con los hashtags: #PeerReviewWeek y #AIinPeerReview.


Desafíos del peer review: un instrumento tan necesario como molesto


El sistema de revisión por pares está siendo cuestionado debido a diversos problemas que enfrenta y que de momento están lejos de poder resolverse. A pesar de no haberse encontrado un sistema de evaluación mejor, en los últimos años se han puesto en evidencia y se han resaltado algunas de sus debilidades, al tiempo que aumenta la presión por publicar. 


Podemos destacar, entre las debilidades de la revisión por pares, las siguientes (Clarisó Viladrosa, 2014; García-Perdomo y López-Ramos, 2021): 


• Tiempo de las respuestas: la revisión es un proceso riguroso, que consume tiempo. 

• Dificultad para encontrar revisores. 

• Rechazo de ideas poco convencionales. 

• Inconsistencia entre dos o más revisiones. 

• Calidad de las revisiones. 

• Riesgo de malas prácticas por parte de los revisores. 

• Sesgos en la revisión, al utilizar criterios diferentes en función de la nacionalidad, género, etc. de los autores del artículo en revisiones que no son doble ciego


Aunque existen motivaciones, tanto altruistas como egoístas, para llevar a cabo una revisión (Codina Bonilla, 2024), el sistema de publicación científica pasa por un momento difícil debido a la cantidad de manuscritos que se envían y la dificultad para encontrar revisores y agilizar los tiempos.


Que sea una actividad no remunerada es, a menudo, una disuasión al encontrar revisores. Si bien algunas editoriales han comenzado a ofrecer ciertas ventajas a las personas que revisan artículos en sus revistas (como descuentos en APCs, etc.) con el fin de mejorar sus tiempos de revisión, esto no ha mejorado mucho la situación y tiene su contrapartida en aquellas revistas que no pertenecen a grandes editoriales y no cuentan con recursos para ofrecer este tipo de alicientes. 


Por otra parte, la revisión por pares es una actividad que requiere un gran esfuerzo por parte del revisor y, como hemos visto, puede llegar a consumir mucho tiempo, retrasando los tiempos de respuesta y alargando los plazos de publicación. 


Estos retrasos en la revisión llevan a grandes cuellos de botella, especialmente en aquellas revistas mejor situadas en los sistemas de indexación. 


Pese a los inconvenientes, la revista como medio de difusión de los resultados científicos y la revisión por pares como forma de garantizar la calidad de lo publicado se mantiene como la forma más fiable –que no infalible- y rápida de comunicar la ciencia, garantizar su calidad y asegurar el avance científico. Como afirma Clarisó Viladrosa (2014), el peer review "es el peor sistema de selección de artículos científicos… a excepción de todos los demás que se han ensayado". Así pues, el reto es mantener este sistema, minimizando sus inconvenientes.  


Peer Review e inteligencia artificial


En este contexto, se ha planteado la posibilidad de que la tecnología permita mejorar los procesos de revisión de los artículos científicos, siendo la Inteligencia Artificial la que, por su potencialidad, más expectativas despierta. La introducción de la Inteligencia Artificial en la revisión ha generado, cómo no, un debate tanto sobre la oportunidad como sobre la potencialidad de ésta para realizar una tarea que requiere de un gran esfuerzo intelectual y de conocimientos específicos.


Cárdenas (2023) resume el debate sobre el uso de la IA en la evaluación en dos posiciones: 


  • Los contrarios al uso de la IA en la evaluación del conocimiento científico arguyen que los modelos de lenguaje de gran tamaño (LLM) son opacos -se desconoce con qué datos han sido entrenados-, y sesgados al estar basados en datos pasados. 


  • Los que defienden el uso de la IA en la revisión de artículos científicos tienen dos argumentos principales, que se basan en la reducción del tiempo de evaluación y en que “el conocimiento que un revisor humano tiene sobre un tema puede ser parcial u obsoleto, mientras que herramientas de IA especializadas pueden valorar de forma más global al tener acceso a grandes bases de datos científicas”. 


Pero cuando hablamos de la introducción de la IA en el proceso de revisión, no nos referimos únicamente a software o aplicaciones específicamente desarrolladas para llevar a cabo una revisión completa de los envíos. En los últimos años han ido apareciendo diferentes herramientas basadas en modelos de procesamiento de lenguaje natural (PLN) o en grandes modelos lingüísticos (LLM) que apoyan o automatizan diferentes aspectos de este proceso, desde la detección del plagio hasta la revisión de las referencias. Kousha y Thelwal (2024), tras analizar diferentes herramientas y estudios sobre el tema, concluyen que la inteligencia artificial aún está lejos de poder reemplazar a los revisores humanos. No obstante, afirman que las herramientas de IA disponibles para la revisión pueden ser útiles para la detección rápida de errores obvios, la revisión gramatical o para la comprobación metodológica o estadística, facilitando ciertas tareas a los revisores y acortando el tiempo empleado por éstos. 


Cómo ayuda la IA a la revisión por pares


Si bien todavía no se puede confiar en la IA para hacer revisiones completas, existen numerosas herramientas que pueden facilitarla. Estas herramientas ofrecen una amplia gama de funcionalidades que optimizan y mejoran la calidad de las evaluaciones.


En el siguiente listado se muestran, a modo de ejemplo, algunas aplicaciones según la ayuda que pueden prestar a la revisión (COPE, 2023 ; Kousha & Thelwall, 2024) : 

[Este listado no pretende ser exhaustivo y las aplicaciones mencionadas pueden estar sujetas a cambios y
actualizaciones propias del rápido avance de estas tecnologías. La Biblioteca no ha testeado estas aplicaciones y pueden
estar sujetas a pago o suscripción.]

Rechazo automático de manuscritos deficientes


iThenticate y Turnitin (suscrito por la US) son herramientas que utilizan modelos de IA para la detección de plagio y pueden integrarse en los sistemas de gestión de manuscritos para identificar automáticamente trabajos que no cumplen con los estándares de originalidad. Además, se están desarrollando herramientas más avanzadas. 

Asistencia en la detección de sesgos y errores 

Herramientas emergentes como AI Fairness 360 de IBM están diseñadas para detectar sesgos en datos y modelos. Aunque más comúnmente utilizadas en análisis de datos, estas herramientas pueden adaptarse para revisar manuscritos en busca de sesgos metodológicos o de interpretación en estudios científicos.

Generación de informes de revisión

ChatGPT se puede utilizar para redactar borradores iniciales de revisiones un revisor podría usar ChatGPT para generar un resumen de los puntos clave de un manuscrito y luego afinar ese resumen con detalles adicionales basados en su propio juicio y experiencia. 

Verificación de la estructura del manuscrito 

Penelope.ai verifica si la estructura de un manuscrito cumple con las guías de presentación de la revista, incluyendo la página del título, el resumen, el estilo de citación, referencias, tablas y figuras, y otra información relevante. Esto reduce la necesidad de revisiones manuales por parte de los revisores, editores o editores de la revista.

Mejora lingüística de los informes y accesibilidad para revisores no nativos
Herramientas como Grammarly y Writefull (suscrito por la Universidad de Sevilla) ayudan a mejorar la calidad gramatical, la claridad y la coherencia del lenguaje. Se pueden usar
para revisar el informe de revisión en busca de errores gramaticales y mejorar el tono para que sea más académico y claro antes de enviar la evaluación final.

Coincidencia de referencias con citas en el texto

Recite verifica y resalta automáticamente si las citas en el texto del manuscrito coinciden con la lista de referencias y viceversa, asegurando la precisión en la citación y reduciendo
errores comunes en la preparación del manuscrito.

Estandarización de formatos de revisión

OpenAI Codex puede ser utilizada para crear formatos de revisión estándar que faciliten la comparación y evaluación. Por ejemplo, un editor podría usar Codex para generar un formato de plantilla de revisión con secciones predefinidas que los revisores deben completar, asegurando así una uniformidad en la estructura de los informes. 

Verificación estadística automatizada

StatCheck detecta errores estadísticos en los trabajos presentados, lo que permite a los revisores identificar errores en los análisis estadísticos y verificar la plausibilidad de los resultados presentados en los artículos.

Verificación de transparencia y reproducibilidad

Dimensions Research Integrity preCheck es una herramienta que analiza manuscritos enviados en busca de evidencia de transparencia y reproducibilidad, como declaraciones
de acceso a datos y la mención de las versiones del software utilizado, ayudando a los revisores a evaluar la solidez y la replicabilidad de la investigación presentada

Estas herramientas de IA ofrecen una variedad de funciones que pueden mejorar la eficiencia y la calidad del proceso de revisión por pares en la publicación académica. También pueden ayudar al personal investigador como guías en la elaboración de sus manuscritos. Sin embargo, es fundamental que su implementación esté bien gestionada para mantener la integridad del proceso y garantizar que las decisiones editoriales sigan siendo justas y precisas.

Como es obvio, hay que tener en cuenta que el uso de estas herramientas tiene implicaciones éticas importantes. Estas herramientas suelen implicar la manipulación o procesamiento de
información sensible, por lo que es fundamental considerar aspectos como la privacidad y la propiedad intelectual. Esto es especialmente relevante cuando se utilizan en la revisión por
pares, ya que pueden aplicarse sobre trabajos de terceros o implicar el análisis de datos que no nos pertenecen o que están sujetos a protección legal. Recomendamos, por lo tanto, que su uso sea cuidadoso y siempre en cumplimiento con las normativas vigentes sobre confidencialidad, protección de datos y propiedad intelectual.

Bibliografía
Cárdenas, J. (2023). Inteligencia artificial, investigación y revisión por pares: escenarios futuros y estrategias de acción. Revista Española de Sociología, 32(4), a184.
https://doi.org/10.22325/fes/res.2023.184

COPE (13 de octubre de 2023). Artificial intelligence (AI) and peer review. https://youtu.be/HJYB1IaS598?si=NPoSpaN-sN5apxvY

García-Perdomo, H. A., & López-Ramos, H. E. (2021). La Importancia de la Revisión por Pares para Avanzar en Ciencia. 

Revista Urología Colombiana Colombian Urology Journal, 30(02), 087-088. https://doi.org/10.1055/s-0041-1730409

Kousha, K. and Thelwall, M. (2024). Artificial intelligence to support publishing and peer review: A summary and review. Learned Publishing, 37(1), 4-12. https://doi.org/10.1002/leap.1570




"¡Quemadlo con fuego!" - El uso de ChatGPT «polariza» a los revisores

Publicado en THE Times Higher Education https://www.timeshighereducation.com/news/corrupting-chatgpt-use-polarises-peer-reviewers   Quemadlo...