Mostrando entradas con la etiqueta Dictaminación. Mostrar todas las entradas
Mostrando entradas con la etiqueta Dictaminación. Mostrar todas las entradas

miércoles, 12 de febrero de 2025

IA y revisión por pares: Un análisis FODA exhaustivo de la IA y la experiencia humana en la revisión por pares

Publicado en The Scholarly Kitchen
https://scholarlykitchen.sspnet.org/2024/09/12/strengths-weaknesses-opportunities-and-threats-a-comprehensive-swot-analysis-of-ai-and-human-expertise-in-peer-review/ 





Puntos fuertes, puntos débiles, oportunidades y amenazas: Un análisis FODA exhaustivo de la IA y la experiencia humana en la revisión por pares

Por Roohi Ghosh

12 de septiembre de 2024


Ahora que se acerca la Semana de la Revisión por Pares, espero que el evento estimule conversaciones que no se limiten a rascar la superficie, sino que profundicen en la comprensión del papel de la revisión por pares en la era digital actual y aborden los principales problemas a los que se enfrenta la revisión por pares. Para mí, uno de los principales problemas es que se han descubierto contenidos generados por IA en destacadas revistas. Una pregunta clave es: ¿debe recaer toda la culpa de estas transgresiones en el proceso de revisión por pares?


Para responder a esta pregunta, me gustaría plantear algunas más. ¿Es usted consciente del enorme volumen de artículos que se publican cada año? ¿Conoce el número de revisores disponibles en comparación? ¿Conoce la función real de la revisión por pares? ¿Y es consciente de que se trata de un esfuerzo altruista?


El sistema de revisión por pares está saturado. Cada año se envían millones de artículos y, en proporción, el número de revisores no crece al mismo ritmo. Esto se debe, entre otras razones, a que la revisión por pares es una tarea voluntaria que requiere mucho tiempo y que los revisores asumen además de sus otras responsabilidades académicas y docentes a tiempo completo. Otra razón es la falta de diversidad en el grupo de revisores. El sistema está realmente al límite.


Por supuesto, esto no significa que la calidad de las revisiones sea inferior a la media. Pero la pregunta fundamental sigue siendo: «¿Debería ser la función de la revisión por pares atrapar el texto generado por la IA?». Se espera que los revisores contribuyan a la ciencia: que identifiquen lagunas en la propia investigación, que detecten fallos estructurales y lógicos y que aprovechen su experiencia para fortalecer la ciencia. La atención de un revisor se desviaría si, en lugar de centrarse en la ciencia, se le pidiera que buscara contenidos generados por IA; en mi opinión, esto diluye su experiencia y traslada la carga a ellos de una manera que nunca se pretendió. 


Irónicamente, la IA debería considerarse una herramienta para aliviar la carga de trabajo de los revisores, NO para aumentarla. ¿Cómo podemos asegurarnos de que, en general, la IA se utiliza para complementar la experiencia humana, para facilitar las tareas y no para aumentar la carga? ¿Y cómo podemos dejar de culpar a los demás y pasar a evaluar detenidamente cómo podemos utilizar la IA para colmar las lagunas que ella misma está creando? En resumen, ¿cómo puede el problema convertirse en la solución?


El objetivo de la IA es garantizar que haya más tiempo para la innovación liberando nuestro tiempo de las tareas rutinarias. Es un flaco favor si acabamos teniendo que dedicar más tiempo a comprobaciones rutinarias sólo para identificar el mal uso de la IA. Esto contradice totalmente el propósito de las herramientas de IA y, si así es como estamos configurando los procesos, nos estamos abocando al fracaso.


Lo ideal es que los flujos de trabajo se establezcan de la forma más ágil posible. Si hay algo que genera tensión y fricción, es probable que el proceso sea el culpable y haya que cambiarlo.


¿Pueden las revistas invertir en herramientas de IA más sofisticadas para detectar posibles problemas antes incluso de que los artículos lleguen a los revisores? Esto permitiría a los revisores concentrarse únicamente en el contenido. Existen herramientas para identificar contenidos generados por IA. Puede que no sean perfectas (ni tan eficaces todavía), pero existen y siguen mejorando. ¿Cómo pueden integrarse estas herramientas en el proceso de evaluación de las revistas?  


¿Se trata de una función editorial o de algo de lo que deberían ocuparse los revisores? ¿Deberían las revistas ofrecer formación específica sobre cómo utilizar las herramientas de IA de forma eficaz, para que complementen el juicio humano en lugar de sustituirlo? ¿Podemos crear programas estandarizados de formación de revisores por pares para toda la industria o directrices que aclaren qué entra en el ámbito de lo que se supone que debe evaluar un revisor por pares y qué no?


Tal vez el desarrollo de un enfoque más colaborativo de la revisión por pares, en el que varios revisores puedan debatir y compartir puntos de vista, ayude a detectar problemas que un solo individuo podría pasar por alto. 


Cambiar la conversación


En lugar de culpar a los demás, debemos hacernos las preguntas cruciales: ¿Estamos dotando a nuestros revisores de las herramientas adecuadas para tener éxito en un panorama cada vez más complejo? ¿Cómo puede aprovecharse la IA no como una carga, sino como un verdadero aliado para mantener la integridad de la investigación? ¿Estamos preparados para replantearnos las funciones dentro de la revisión por pares? ¿Podemos dejar de ver la IA como una amenaza o un problema y aceptarla como un aliado que mejora el juicio humano en lugar de complicarlo?


Demos un paso atrás y veamos este análisis DAFO de la IA frente a la experiencia humana en la revisión por pares





El reto que se nos presenta es mucho más que atrapar contenidos generados por IA; se trata de reimaginar el futuro de la revisión por pares.


Es hora de que la conversación cambie. Es hora de dejar de culpar a los demás. Es hora de reconocer las fortalezas, las debilidades, las oportunidades y las amenazas tanto de los humanos como de la IA.



***********************

    Strengths, Weaknesses, Opportunities, and Threats: A Comprehensive SWOT Analysis of AI and Human Expertise in Peer Review


With Peer Review Week fast approaching, I’m hoping the event will spur conversations that don’t just scratch the surface, but rather dig deeply into understanding the role of peer review in today’s digital age and address the core issues peer review is facing. To me, one of the main issues is that AI-generated content has been discovered in prominent journals. A key question is, should all of the blame for these transgressions fall on the peer review process?

To answer this question, I would like to ask a few more in response. Are you aware of the sheer volume of papers published each year? Do you know the number of peer reviewers available in comparison? Do you understand the actual role of peer review? And are you aware that this is an altruistic effort?  

The peer review system is overworked! Millions of papers are being submitted each year and in proportion, the number of peer reviewers available is not growing at the same pace. Some reasons for this are that peer reviewing is a voluntary, time-consuming task which reviewers take on in addition to their other full-time academic and teaching responsibilities. Another reason is the lack of diversity in the reviewer pool. The system is truly stretched to its limits.

Of course, this doesn’t mean sub-par quality reviews. But the fundamental question remains “Should the role of peer review be to catch AI-generated text?” Peer reviewers are expected to contribute to the science — to identify gaps in the research itself, to spot structural and logical flaws and to leverage their expertise to make the science stronger. A peer reviewer’s focus will get diverted if instead of focusing on the science, they were instead asked to hunt down AI-generated content; this in my opinion dilutes their expertise and shifts the burden onto them in a way that it was never intended.  

Ironically, AI should be seen as a tool to ease the workload of peer reviewers, NOT to add to it. How can we ensure that across the board, AI is being used to complement human expertise — to make tasks easier, not to add to the burden? And how can the conversation shift from a blame game to carefully evaluating how we can use AI to address the gaps that it is itself creating. In short, how can the problem become the solution?

The aim of AI is to ensure that there is more time for innovation by freeing our time from routine tasks. It is a disservice if we end up having to spend more time on routine checks just to identify the misuse of AI! It entirely defeats the purpose of AI tools and if that’s how we are setting up processes, then we are setting ourselves up for failure.  

Workflows are ideally set up in as streamlined a manner as possible. If something is creating stress and friction, it is probably the process that is at fault and needs to be changed.

Can journals invest in more sophisticated AI tools to flag potential issues before papers even reach peer reviewers? This would allow reviewers to concentrate on the content alone. There are tools available to identify AI generated content. They may not be perfect (or even all that effective as of yet), but they exist and continue to improve. How can these tools be integrated into the journal evaluation process?  

Is this an editorial function or something peer reviewers should be concerned with? Should journals provide targeted training on how to use AI tools effectively, so they complement human judgment rather than replace it? Can we create standardized industry-wide peer reviewer training programs or guidelines that clarify what falls under the scope of what a peer reviewer is supposed to evaluate and what doesn’t?

Perhaps developing a more collaborative approach to peer review, where multiple reviewers can discuss and share insights will help in spotting issues that one individual could miss.  

Shifting the Conversation

Instead of casting blame, we must ask ourselves the critical questions: Are we equipping our peer reviewers with the right tools to succeed in an increasingly complex landscape? How can AI be harnessed not as a burden, but as a true ally in maintaining the integrity of research? Are we prepared to re-think the roles within peer review? Can we stop viewing AI as a threat or as a problem and instead embrace it as a partner—one that enhances human judgment rather than complicates it?

Let’s take a step back and look at this SWOT analysis for AI versus human expertise in peer review  






Table showing SWOT analysis of AI in peer review

The challenge presented before us is much more than just catching AI-generated content; it’s about reimagining the future of peer review.

It’s time for the conversation to shift. It’s time for the blame game to stop. It’s time to recognize the strengths, the weaknesses, the opportunities and the threats of both humans and AI.


miércoles, 1 de febrero de 2023

Publons: cómo acreditar y registrar tu actividad de revisión por pares

Nota publicada en blog Universo abierto

Publons: cómo acreditar y registrar tu actividad de revisión por pares  

Consultar: https://weblog.wur.eu/openscience/rewarding-your-peer-review-and-editorial-contributions-publons/


Rewarding your peer review and editorial contributions: Publons
By Chantal Hukkelhoven, 2019

Texto completo

Los investigadores dedican mucho tiempo y esfuerzo a revisar los manuscritos de otros investigadores, pero generalmente no son recompensados ​​por esta actividad ya que las revisiones suelen ser anónimas.

Publons es una plataforma integrada en Web of Science que crea y muestra perfiles verificados de las contribuciones editoriales y de revisión por pares previas a la publicación de un investigador para revistas académicas. Estos perfiles pueden incluirse, entre otros, en el currículum vitae, las solicitudes de financiación y las evaluaciones de promoción y rendimiento.

Estos perfiles pueden incluirse, entre otros, en el currículum vitae, las solicitudes de financiación y las evaluaciones de promoción y rendimiento. Publons también crea una visión general de la calidad de tus revisiones en comparación con sus pares. También es posible importar y mostrar tus propias publicaciones en Publons.

Formas de agregar revisiones de pares a tu perfil en Publons:

  1. Agregar revisiones realizadas para revistas asociadas a Web of Sciece
  2. Envíar certificados de revisión a reviews@publons.com
  3. Habilitar actualizaciones automáticas
  4. Agregar reseñas a través de los formularios en el sitio

En Publons puedes mantener el perfil privado o puedes mostrar varios niveles de detalles sobre cada revisión individual, como el año, el nombre del editor, el nombre de la revista o incluso el texto completo de la revisión, aunque las revistas pueden optar por anular este último. El contenido de la reseña se comparte mediante una licencia Creative Commons CC BY 4.0. También se muestra la duración media de la revisión en comparación con otras en su campo o institución, lo que sirve como indicador de la calidad de su trabajo.

También existen alternativas a Publons para registrar tus actividades editoriales y de revisión previas a la publicación. Hace unos seis meses, ORCID lanzó una función que agrega esta información tu perfil de ORCID. También existen otras plataformas menos conocidas, como Peerage of Science, como alternativa a Publons. Además, existen plataformas que registran tus reseñas después de la publicación, por ejemplo, F1000Research.


lunes, 2 de mayo de 2022

ARTÍCULO: Retrasos en el proceso editorial de las publicaciones académicas incluidas en SciELO México

Publicado en Revista Interamericana de Bibliotecología (udea.edu.co)https://revistas.udea.edu.co/index.php/RIB/article/view/344044


Retrasos en el proceso editorial de las publicaciones académicas incluidas en SciELO México 

Publicar en revistas de ciencia y tecnología toma generalmente mucho tiempo, lo que puede tener efectos negativos en las carreras académicas (obtención de becas, de plazas y promociones) y en la reputación de las propias publicaciones seriadas. También es una variable relevante que los autores toman en cuenta para decidir dónde publicar. A pesar de los efectos de estos retrasos, existen muy pocos estudios sistemáticos en México sobre el tiempo que le toma a las revistas dar a conocer los textos recibidos. Este trata de cubrir esa laguna de información. 

Disponible en: 

https://bit.ly/3KFY768

**************

Retrasos en el proceso editorial de las publicaciones académicas incluidas en SciELO México

Autores/as 
  • Raúl Marcó del Pont LalliInstituto de Geografía, UNAM
  • Raúl Martínez NavarroInstituto Nacional de Antropología e Historia (INAH)
DOI: https://doi.org/10.17533/udea.rib.v45n2e344044

RESUMEN

Publicar en revistas de ciencia y tecnología toma generalmente mucho tiempo, lo que puede tener efectos negativos en las carreras académicas (obtención de becas, de plazas y promociones) y en la reputación de las propias publicaciones seriadas. También es una variable relevante que los autores toman en cuenta para decidir dónde publicar. A pesar de los efectos de estos retrasos, existen muy pocos estudios sistemáticos en México sobre el tiempo que le toma a las revistas dar a conocer los textos recibidos. Para cubrir esa ausencia, se analizó este aspecto editorial, a partir de los datos abiertos de SciELO México, y los tiempos que les toma a 196 revistas mexicanas dar a conocer sus artículos, así como las diferencias notables entre publicaciones seriadas de un mismo campo de conocimiento. Se compararon los tiempos resultantes con estudios similares sobre los journals anglosajones, los megajournals y las revistas depredadoras, para ubicar con mayor claridad los procesos editoriales en un entorno global, y vislumbrar las posibilidades de una gestión editorial más eficiente.

|



jueves, 10 de junio de 2021

La pregunta de los 450 dólares: ¿Deben las revistas pagar a los revisores?

Publicado en Science
https://www.sciencemag.org/news/2021/03/450-question-should-journals-pay-peer-reviewers

La pregunta de los 450 dólares: ¿Deben las revistas pagar a los revisores?

Por Jeffrey Brainard

1 de marzo de 2021

Para muchos científicos muy ocupados, recibir otra invitación de una revista académica para revisar otro manuscrito puede desencadenar gemidos. El trabajo requiere mucho tiempo y la recompensa puede parecer intangible. Además, los revisores trabajan gratis, aunque las grandes editoriales comerciales que gestionan muchas revistas obtengan cuantiosos beneficios.

Pero, a pesar de los gritos ocasionales y exasperados de "deberían pagarme por esto", los científicos han seguido adelante. Muchos aducen el sentido del deber de contribuir al avance de sus disciplinas, así como la necesidad de reciprocidad, al saber que otros investigadores se ofrecen a revisar sus manuscritos.

Pero la semana pasada, los investigadores de una conferencia sobre publicaciones académicas debatieron una cuestión provocativa: ¿Debería pagarse a los revisores?

La cuestión ha atraído una mayor atención a medida que los revisores se han vuelto más difíciles de reclutar. Incluso antes de que comenzara la pandemia de la COVID-19 el año pasado, que produjo una ventisca de envíos, las revistas informaban de la "fatiga de los revisores": En 2013, los editores de las revistas tenían que invitar a una media de 1,9 revisores para conseguir una revisión completa; en 2017, el número había aumentado a 2,4, según un informe de Publons, una empresa que hace un seguimiento del trabajo de los revisores.

Durante el debate en la conferencia virtual Researcher to Reader, los argumentos a favor de pagar a los revisores fueron presentados por James Heathers, un antiguo científico investigador en ciencias del comportamiento computacional que ahora es director científico en una startup tecnológica, Cipher Skin. El año pasado, Heathers llamó la atención tras publicar un manifiesto, "The 450 Movement", en el que argumentaba que 450 dólares sería una tarifa razonable para que las editoriales con ánimo de lucro le pagaran por cada revisión por pares. Heathers basó esa cifra, en parte, en lo que cobrarían los consultores empresariales de su campo. Otros revisores podrían negociar cantidades inferiores, añadió.

Junto a Heathers, en el equipo de pro-pago estaba Brad Fenwick, vicepresidente senior de Taylor & Francis, una editorial con ánimo de lucro que cuenta con unas 2.700 revistas. La pareja sostenía que pagar a los revisores podría mejorar algunos de los defectos más conocidos de la revisión por pares, como los largos retrasos en la recepción de las revisiones, que a menudo carecen de profundidad y sustancia.

Sin embargo, el equipo que se opone al pago predijo que las consecuencias serían nefastas si los honorarios de 450 dólares se convirtieran en la norma. Los costes de suscripción se dispararían y proliferarían las revisiones poco éticas, según un equipo que incluye a Alison Mudditt, directora general de PLOS, la editorial sin ánimo de lucro de artículos de acceso abierto, y a Tim Vines, consultor editorial y fundador de DataSeer, una herramienta de intercambio de datos.

A continuación se presentan extractos del debate, que han sido editados para mayor claridad y brevedad. A continuación de los extractos, encontrará los resultados de las encuestas que miden qué parte del público consideró más persuasiva.


Sobre el pago en efectivo frente a otras recompensas

Fenwick: Algunos editores son bien recompensados por sus esfuerzos. Entonces, ¿por qué no se aplicaría el mismo enfoque a los revisores? Las universidades ofrecen al profesorado la libertad de complementar sus ingresos como consultores remunerados y/o participando en empresas con ánimo de lucro. No hay ninguna razón para que su contribución a la industria editorial sea tratada de forma inferior.

Brezo: La revisión por pares es tratada de la misma manera que cualquier otro recurso común antes de ser regulado: el aire, el agua, la tierra, etc. No hay ninguna presión a la baja sobre el uso infinito del trabajo académico. Y la forma más fácil de ejercer esa presión es valorar la tarea no [sólo] con el reconocimiento, sino con la forma tradicional de apoyar el trabajo cualificado en cualquier otra industria, que es el dinero.

Mudditt: [La revisión remunerada tiene] tan poco interés por parte de los investigadores. Una encuesta de Publons de 2018 encontró que solo el 17% de los encuestados seleccionó el pago en efectivo o en especie como algo que los haría más propensos a aceptar solicitudes de revisión. [La principal prioridad, seleccionada por el 45%, fue un reconocimiento más explícito del trabajo de revisión por parte de las universidades o el empleador].

Vines: Hay esfuerzos para recompensar la revisión por pares, y esto sucede todo el tiempo. Los buenos revisores se convierten en editores, su reputación en la comunidad aumenta.


Sobre si las revistas pueden permitirse pagar a los revisores

A.M.: No hay una forma práctica de pagar a los revisores sin arruinar la revisión por pares. 

Las revisiones varían mucho en longitud, calidad y complejidad. ¿Por dónde empezaríamos a evaluar una tarifa adecuada? ¿Por qué elegir 450 dólares? Hay algunos artículos que son tan intrincados que quizá sólo un puñado de expertos en la Tierra pueda revisarlos. Un editor de una gran sociedad me dice que [una tasa de sólo 350 dólares] acabaría con el superávit que devolvían a la sociedad: no se invertiría más en la investigación y los investigadores de la sociedad.

T.V.: Una media de 2,2 revisiones por artículo es muy típica en las revistas. Y [suponiendo que cada revisor reciba 450 dólares,] cada artículo revisado cuesta, por tanto, 990 dólares. Por supuesto, el APC o tasa de procesamiento de artículos [exigida por algunas revistas para que los artículos sean de libre lectura en el momento de su publicación] sólo se paga por los artículos que son aceptados para su publicación, y el coste de la revisión de los rechazados se carga en el APC. Para una revista con una tasa de aceptación del 25%, tienen que revisar cuatro artículos para encontrar el que aceptan. Multiplicando por cuatro nos da 3960 dólares [para cubrir los costes de revisión de cada artículo aceptado].

Imagínese cómo sería esto en toda una industria. El coste adicional para PLOS sería de 14 millones de dólares al año, lo que supondría más del doble de sus gastos anuales totales. Seguramente ese dinero estaría mejor invertido en la propia investigación y en la resolución de nuestros retos globales más acuciantes.

B.F.: Lo que sí podría ocurrir es que se presentaran menos artículos, porque los costes aumentan. Y eso es una gran amenaza para las editoriales que se basan en los APC y que tienen que aceptar muchos artículos sólo para mantener su flujo de caja estable.

El pago a los revisores es un modelo que debe probarse. Es una propuesta de valor: Si produce publicaciones de mayor calidad, y lo hace más rápido, ¿cuál es el valor de eso para la comunidad científica? Y para algunos [revisores], el pago podría ser cero: no lo necesitan.


Sobre los contratos entre revisores y revistas

B.F.: Un contrato que proporciona un intercambio explícito de valor ofrece una certeza muy necesaria en cuanto a los plazos, la calidad y la previsibilidad de la revisión recibida.

A.M.: Es completamente irreal esperar que alguien vaya a tener el tiempo o la experiencia o la escala para poder gestionar y supervisar cientos de miles de nuevos contratos adicionales en todo el sistema editorial. Simplemente no va a suceder.

J.H.: Es muy difícil creer que las empresas que gestionan más de mil millones de descargas anuales [de artículos académicos] se vean imposibilitadas de alguna manera para realizar la gestión de contratos y pagos.


Sobre si pagar a los revisores incentiva un comportamiento poco ético

A.M.: En un modelo de publicación APC, en el que los revisores deben ser pagados incluso si rechazan un artículo, pero la revista no obtiene ingresos, como editor, usted querría encontrar revisores que acepten un artículo para poder recuperar sus costes a través de un 

APC. La perspectiva de ganar dinero rápido también tentaría a algunos revisores a comentar artículos que están fuera de sus áreas, o a decir a los editores lo que creen que quieren oír para que los contraten de nuevo. ... Y justo cuando estamos empezando a ver una sana y muy necesaria experimentación con nuevas formas de revisión, como las revisiones de preprints, éstas probablemente desaparecerían.

J.H.: La idea de que la revisión pagada es de alguna manera inevitablemente burlada por los revisores deshonestos ... asume que un editor los contratará sin verlos ... en ausencia de observar el trabajo que produjeron.

Antes del debate, un sondeo entre 64 miembros del público registró un 41% a favor de pagar a los revisores y un 59% en contra. Después, entre 50 votantes, la balanza se inclinó hacia un 16% a favor del pago y un 84% en contra.

Queda por ver si los editores de revistas en general seguirán siendo igual de pesimistas sobre los pagos. En el Grupo Taylor & Francis, una pequeña selección de revistas centradas en el desarrollo farmacéutico paga a los revisores por las revisiones aceleradas, dice Jennifer McMillan, directora de comunicaciones. La editorial no tiene previsto ampliar el número de revistas que pagan a los revisores. El papel de Fenwick en el debate fue sólo para estimular la discusión, no para presentar la política de la empresa, añade.

Publicado en: 

doi:10.1126/science.abh3175


Jeffrey Brainard

Jeffrey Brainard se incorporó a Science como editor asociado de noticias en 2017. Cubre una serie de temas y edita la sección In Brief de la revista impresa. 

El cumplimiento de los derechos de autor y la concienciación sobre la IA, «más importantes que nunca»

Publicado en Research information https://www.researchinformation.info/news/awareness-of-copyright-compliance-and-ai-tools-more-important-th...