Mostrando entradas con la etiqueta Arbitraje. Mostrar todas las entradas
Mostrando entradas con la etiqueta Arbitraje. Mostrar todas las entradas

jueves, 26 de septiembre de 2024

PEER REVIEW E INTELIGENCIA ARTIFICIAL

Investiga. Monográficos sobre investigación. Biblioteca de la Universidad de Sevilla
https://bib.us.es/sites/bib3.us.es/files/investiga_sept_2024.pdf#page=1


PEER REVIEW E INTELIGENCIA ARTIFICIAL

Introducción

Desafíos del peer review: un instrumento tan necesario como molesto

Peer review e inteligencia artificial

Cómo ayuda la IA a la revisión por pares

Bibliografía

Novedades


Introducción


Por segundo año consecutivo, la Biblioteca de la Universidad de Sevilla se adhiere a la iniciativa Peer Review Week. Durante la semana del 23 al 27 de septiembre de 2024, este evento anual celebrará y redundará en el valor de la revisión por pares que reúne a las partes interesadas en la comunicación académica, incluidos editores académicos, asociaciones, instituciones y personal investigador.


Este año, esta semana está dedicada al tema “Innovación y tecnología en la revisión por pares”, con lo que se pretende debatir sobre asuntos como los siguientes:


• ¿Se puede utilizar la IA de forma que complemente el valor que aporta el revisor?


• ¿Cómo se puede utilizar para ampliar el grupo de revisores y ofrecer igualdad de

oportunidades a los académicos de países subrepresentados?


• ¿Es posible abordar la crisis de integridad de la investigación en la industria con la ayuda de nuevos enfoques y tecnologías?


• De cara al futuro, ¿podemos esperar un enfoque más colaborativo en el que la tecnología complemente la experiencia humana en la revisión por pares?

Como ya hicimos el pasado año con el monográfico INVESTIGA sobre "Peer Review y Ciencia Abierta", volvemos a colaborar en el debate abierto por la Peer Review Week con este monográfico sobre nuevas tecnologías y aplicaciones en la revisión por pares, en la que abarcaremos diferentes aspectos en los que la tecnología puede ayudar a la revisión por pares, centrándonos, especialmente, en cómo afecta la aparición de la inteligencia artificial generativa en este proceso.


Recomendamos, además, seguir las actividades de la Semana de Revisión por Pares 2024 anunciadas en su web, así como seguir las últimas novedades en las redes sociales a través de @PeerRevWeek y con los hashtags: #PeerReviewWeek y #AIinPeerReview.


Desafíos del peer review: un instrumento tan necesario como molesto


El sistema de revisión por pares está siendo cuestionado debido a diversos problemas que enfrenta y que de momento están lejos de poder resolverse. A pesar de no haberse encontrado un sistema de evaluación mejor, en los últimos años se han puesto en evidencia y se han resaltado algunas de sus debilidades, al tiempo que aumenta la presión por publicar. 


Podemos destacar, entre las debilidades de la revisión por pares, las siguientes (Clarisó Viladrosa, 2014; García-Perdomo y López-Ramos, 2021): 


• Tiempo de las respuestas: la revisión es un proceso riguroso, que consume tiempo. 

• Dificultad para encontrar revisores. 

• Rechazo de ideas poco convencionales. 

• Inconsistencia entre dos o más revisiones. 

• Calidad de las revisiones. 

• Riesgo de malas prácticas por parte de los revisores. 

• Sesgos en la revisión, al utilizar criterios diferentes en función de la nacionalidad, género, etc. de los autores del artículo en revisiones que no son doble ciego


Aunque existen motivaciones, tanto altruistas como egoístas, para llevar a cabo una revisión (Codina Bonilla, 2024), el sistema de publicación científica pasa por un momento difícil debido a la cantidad de manuscritos que se envían y la dificultad para encontrar revisores y agilizar los tiempos.


Que sea una actividad no remunerada es, a menudo, una disuasión al encontrar revisores. Si bien algunas editoriales han comenzado a ofrecer ciertas ventajas a las personas que revisan artículos en sus revistas (como descuentos en APCs, etc.) con el fin de mejorar sus tiempos de revisión, esto no ha mejorado mucho la situación y tiene su contrapartida en aquellas revistas que no pertenecen a grandes editoriales y no cuentan con recursos para ofrecer este tipo de alicientes. 


Por otra parte, la revisión por pares es una actividad que requiere un gran esfuerzo por parte del revisor y, como hemos visto, puede llegar a consumir mucho tiempo, retrasando los tiempos de respuesta y alargando los plazos de publicación. 


Estos retrasos en la revisión llevan a grandes cuellos de botella, especialmente en aquellas revistas mejor situadas en los sistemas de indexación. 


Pese a los inconvenientes, la revista como medio de difusión de los resultados científicos y la revisión por pares como forma de garantizar la calidad de lo publicado se mantiene como la forma más fiable –que no infalible- y rápida de comunicar la ciencia, garantizar su calidad y asegurar el avance científico. Como afirma Clarisó Viladrosa (2014), el peer review "es el peor sistema de selección de artículos científicos… a excepción de todos los demás que se han ensayado". Así pues, el reto es mantener este sistema, minimizando sus inconvenientes.  


Peer Review e inteligencia artificial


En este contexto, se ha planteado la posibilidad de que la tecnología permita mejorar los procesos de revisión de los artículos científicos, siendo la Inteligencia Artificial la que, por su potencialidad, más expectativas despierta. La introducción de la Inteligencia Artificial en la revisión ha generado, cómo no, un debate tanto sobre la oportunidad como sobre la potencialidad de ésta para realizar una tarea que requiere de un gran esfuerzo intelectual y de conocimientos específicos.


Cárdenas (2023) resume el debate sobre el uso de la IA en la evaluación en dos posiciones: 


  • Los contrarios al uso de la IA en la evaluación del conocimiento científico arguyen que los modelos de lenguaje de gran tamaño (LLM) son opacos -se desconoce con qué datos han sido entrenados-, y sesgados al estar basados en datos pasados. 


  • Los que defienden el uso de la IA en la revisión de artículos científicos tienen dos argumentos principales, que se basan en la reducción del tiempo de evaluación y en que “el conocimiento que un revisor humano tiene sobre un tema puede ser parcial u obsoleto, mientras que herramientas de IA especializadas pueden valorar de forma más global al tener acceso a grandes bases de datos científicas”. 


Pero cuando hablamos de la introducción de la IA en el proceso de revisión, no nos referimos únicamente a software o aplicaciones específicamente desarrolladas para llevar a cabo una revisión completa de los envíos. En los últimos años han ido apareciendo diferentes herramientas basadas en modelos de procesamiento de lenguaje natural (PLN) o en grandes modelos lingüísticos (LLM) que apoyan o automatizan diferentes aspectos de este proceso, desde la detección del plagio hasta la revisión de las referencias. Kousha y Thelwal (2024), tras analizar diferentes herramientas y estudios sobre el tema, concluyen que la inteligencia artificial aún está lejos de poder reemplazar a los revisores humanos. No obstante, afirman que las herramientas de IA disponibles para la revisión pueden ser útiles para la detección rápida de errores obvios, la revisión gramatical o para la comprobación metodológica o estadística, facilitando ciertas tareas a los revisores y acortando el tiempo empleado por éstos. 


Cómo ayuda la IA a la revisión por pares


Si bien todavía no se puede confiar en la IA para hacer revisiones completas, existen numerosas herramientas que pueden facilitarla. Estas herramientas ofrecen una amplia gama de funcionalidades que optimizan y mejoran la calidad de las evaluaciones.


En el siguiente listado se muestran, a modo de ejemplo, algunas aplicaciones según la ayuda que pueden prestar a la revisión (COPE, 2023 ; Kousha & Thelwall, 2024) : 

[Este listado no pretende ser exhaustivo y las aplicaciones mencionadas pueden estar sujetas a cambios y
actualizaciones propias del rápido avance de estas tecnologías. La Biblioteca no ha testeado estas aplicaciones y pueden
estar sujetas a pago o suscripción.]

Rechazo automático de manuscritos deficientes


iThenticate y Turnitin (suscrito por la US) son herramientas que utilizan modelos de IA para la detección de plagio y pueden integrarse en los sistemas de gestión de manuscritos para identificar automáticamente trabajos que no cumplen con los estándares de originalidad. Además, se están desarrollando herramientas más avanzadas. 

Asistencia en la detección de sesgos y errores 

Herramientas emergentes como AI Fairness 360 de IBM están diseñadas para detectar sesgos en datos y modelos. Aunque más comúnmente utilizadas en análisis de datos, estas herramientas pueden adaptarse para revisar manuscritos en busca de sesgos metodológicos o de interpretación en estudios científicos.

Generación de informes de revisión

ChatGPT se puede utilizar para redactar borradores iniciales de revisiones un revisor podría usar ChatGPT para generar un resumen de los puntos clave de un manuscrito y luego afinar ese resumen con detalles adicionales basados en su propio juicio y experiencia. 

Verificación de la estructura del manuscrito 

Penelope.ai verifica si la estructura de un manuscrito cumple con las guías de presentación de la revista, incluyendo la página del título, el resumen, el estilo de citación, referencias, tablas y figuras, y otra información relevante. Esto reduce la necesidad de revisiones manuales por parte de los revisores, editores o editores de la revista.

Mejora lingüística de los informes y accesibilidad para revisores no nativos
Herramientas como Grammarly y Writefull (suscrito por la Universidad de Sevilla) ayudan a mejorar la calidad gramatical, la claridad y la coherencia del lenguaje. Se pueden usar
para revisar el informe de revisión en busca de errores gramaticales y mejorar el tono para que sea más académico y claro antes de enviar la evaluación final.

Coincidencia de referencias con citas en el texto

Recite verifica y resalta automáticamente si las citas en el texto del manuscrito coinciden con la lista de referencias y viceversa, asegurando la precisión en la citación y reduciendo
errores comunes en la preparación del manuscrito.

Estandarización de formatos de revisión

OpenAI Codex puede ser utilizada para crear formatos de revisión estándar que faciliten la comparación y evaluación. Por ejemplo, un editor podría usar Codex para generar un formato de plantilla de revisión con secciones predefinidas que los revisores deben completar, asegurando así una uniformidad en la estructura de los informes. 

Verificación estadística automatizada

StatCheck detecta errores estadísticos en los trabajos presentados, lo que permite a los revisores identificar errores en los análisis estadísticos y verificar la plausibilidad de los resultados presentados en los artículos.

Verificación de transparencia y reproducibilidad

Dimensions Research Integrity preCheck es una herramienta que analiza manuscritos enviados en busca de evidencia de transparencia y reproducibilidad, como declaraciones
de acceso a datos y la mención de las versiones del software utilizado, ayudando a los revisores a evaluar la solidez y la replicabilidad de la investigación presentada

Estas herramientas de IA ofrecen una variedad de funciones que pueden mejorar la eficiencia y la calidad del proceso de revisión por pares en la publicación académica. También pueden ayudar al personal investigador como guías en la elaboración de sus manuscritos. Sin embargo, es fundamental que su implementación esté bien gestionada para mantener la integridad del proceso y garantizar que las decisiones editoriales sigan siendo justas y precisas.

Como es obvio, hay que tener en cuenta que el uso de estas herramientas tiene implicaciones éticas importantes. Estas herramientas suelen implicar la manipulación o procesamiento de
información sensible, por lo que es fundamental considerar aspectos como la privacidad y la propiedad intelectual. Esto es especialmente relevante cuando se utilizan en la revisión por
pares, ya que pueden aplicarse sobre trabajos de terceros o implicar el análisis de datos que no nos pertenecen o que están sujetos a protección legal. Recomendamos, por lo tanto, que su uso sea cuidadoso y siempre en cumplimiento con las normativas vigentes sobre confidencialidad, protección de datos y propiedad intelectual.

Bibliografía
Cárdenas, J. (2023). Inteligencia artificial, investigación y revisión por pares: escenarios futuros y estrategias de acción. Revista Española de Sociología, 32(4), a184.
https://doi.org/10.22325/fes/res.2023.184

COPE (13 de octubre de 2023). Artificial intelligence (AI) and peer review. https://youtu.be/HJYB1IaS598?si=NPoSpaN-sN5apxvY

García-Perdomo, H. A., & López-Ramos, H. E. (2021). La Importancia de la Revisión por Pares para Avanzar en Ciencia. 

Revista Urología Colombiana Colombian Urology Journal, 30(02), 087-088. https://doi.org/10.1055/s-0041-1730409

Kousha, K. and Thelwall, M. (2024). Artificial intelligence to support publishing and peer review: A summary and review. Learned Publishing, 37(1), 4-12. https://doi.org/10.1002/leap.1570




miércoles, 1 de febrero de 2023

Publons: cómo acreditar y registrar tu actividad de revisión por pares

Nota publicada en blog Universo abierto

Publons: cómo acreditar y registrar tu actividad de revisión por pares  

Consultar: https://weblog.wur.eu/openscience/rewarding-your-peer-review-and-editorial-contributions-publons/


Rewarding your peer review and editorial contributions: Publons
By Chantal Hukkelhoven, 2019

Texto completo

Los investigadores dedican mucho tiempo y esfuerzo a revisar los manuscritos de otros investigadores, pero generalmente no son recompensados ​​por esta actividad ya que las revisiones suelen ser anónimas.

Publons es una plataforma integrada en Web of Science que crea y muestra perfiles verificados de las contribuciones editoriales y de revisión por pares previas a la publicación de un investigador para revistas académicas. Estos perfiles pueden incluirse, entre otros, en el currículum vitae, las solicitudes de financiación y las evaluaciones de promoción y rendimiento.

Estos perfiles pueden incluirse, entre otros, en el currículum vitae, las solicitudes de financiación y las evaluaciones de promoción y rendimiento. Publons también crea una visión general de la calidad de tus revisiones en comparación con sus pares. También es posible importar y mostrar tus propias publicaciones en Publons.

Formas de agregar revisiones de pares a tu perfil en Publons:

  1. Agregar revisiones realizadas para revistas asociadas a Web of Sciece
  2. Envíar certificados de revisión a reviews@publons.com
  3. Habilitar actualizaciones automáticas
  4. Agregar reseñas a través de los formularios en el sitio

En Publons puedes mantener el perfil privado o puedes mostrar varios niveles de detalles sobre cada revisión individual, como el año, el nombre del editor, el nombre de la revista o incluso el texto completo de la revisión, aunque las revistas pueden optar por anular este último. El contenido de la reseña se comparte mediante una licencia Creative Commons CC BY 4.0. También se muestra la duración media de la revisión en comparación con otras en su campo o institución, lo que sirve como indicador de la calidad de su trabajo.

También existen alternativas a Publons para registrar tus actividades editoriales y de revisión previas a la publicación. Hace unos seis meses, ORCID lanzó una función que agrega esta información tu perfil de ORCID. También existen otras plataformas menos conocidas, como Peerage of Science, como alternativa a Publons. Además, existen plataformas que registran tus reseñas después de la publicación, por ejemplo, F1000Research.


lunes, 2 de mayo de 2022

ARTÍCULO: Retrasos en el proceso editorial de las publicaciones académicas incluidas en SciELO México

Publicado en Revista Interamericana de Bibliotecología (udea.edu.co)https://revistas.udea.edu.co/index.php/RIB/article/view/344044


Retrasos en el proceso editorial de las publicaciones académicas incluidas en SciELO México 

Publicar en revistas de ciencia y tecnología toma generalmente mucho tiempo, lo que puede tener efectos negativos en las carreras académicas (obtención de becas, de plazas y promociones) y en la reputación de las propias publicaciones seriadas. También es una variable relevante que los autores toman en cuenta para decidir dónde publicar. A pesar de los efectos de estos retrasos, existen muy pocos estudios sistemáticos en México sobre el tiempo que le toma a las revistas dar a conocer los textos recibidos. Este trata de cubrir esa laguna de información. 

Disponible en: 

https://bit.ly/3KFY768

**************

Retrasos en el proceso editorial de las publicaciones académicas incluidas en SciELO México

Autores/as 
  • Raúl Marcó del Pont LalliInstituto de Geografía, UNAM
  • Raúl Martínez NavarroInstituto Nacional de Antropología e Historia (INAH)
DOI: https://doi.org/10.17533/udea.rib.v45n2e344044

RESUMEN

Publicar en revistas de ciencia y tecnología toma generalmente mucho tiempo, lo que puede tener efectos negativos en las carreras académicas (obtención de becas, de plazas y promociones) y en la reputación de las propias publicaciones seriadas. También es una variable relevante que los autores toman en cuenta para decidir dónde publicar. A pesar de los efectos de estos retrasos, existen muy pocos estudios sistemáticos en México sobre el tiempo que le toma a las revistas dar a conocer los textos recibidos. Para cubrir esa ausencia, se analizó este aspecto editorial, a partir de los datos abiertos de SciELO México, y los tiempos que les toma a 196 revistas mexicanas dar a conocer sus artículos, así como las diferencias notables entre publicaciones seriadas de un mismo campo de conocimiento. Se compararon los tiempos resultantes con estudios similares sobre los journals anglosajones, los megajournals y las revistas depredadoras, para ubicar con mayor claridad los procesos editoriales en un entorno global, y vislumbrar las posibilidades de una gestión editorial más eficiente.

|



jueves, 10 de junio de 2021

La pregunta de los 450 dólares: ¿Deben las revistas pagar a los revisores?

Publicado en Science
https://www.sciencemag.org/news/2021/03/450-question-should-journals-pay-peer-reviewers

La pregunta de los 450 dólares: ¿Deben las revistas pagar a los revisores?

Por Jeffrey Brainard

1 de marzo de 2021

Para muchos científicos muy ocupados, recibir otra invitación de una revista académica para revisar otro manuscrito puede desencadenar gemidos. El trabajo requiere mucho tiempo y la recompensa puede parecer intangible. Además, los revisores trabajan gratis, aunque las grandes editoriales comerciales que gestionan muchas revistas obtengan cuantiosos beneficios.

Pero, a pesar de los gritos ocasionales y exasperados de "deberían pagarme por esto", los científicos han seguido adelante. Muchos aducen el sentido del deber de contribuir al avance de sus disciplinas, así como la necesidad de reciprocidad, al saber que otros investigadores se ofrecen a revisar sus manuscritos.

Pero la semana pasada, los investigadores de una conferencia sobre publicaciones académicas debatieron una cuestión provocativa: ¿Debería pagarse a los revisores?

La cuestión ha atraído una mayor atención a medida que los revisores se han vuelto más difíciles de reclutar. Incluso antes de que comenzara la pandemia de la COVID-19 el año pasado, que produjo una ventisca de envíos, las revistas informaban de la "fatiga de los revisores": En 2013, los editores de las revistas tenían que invitar a una media de 1,9 revisores para conseguir una revisión completa; en 2017, el número había aumentado a 2,4, según un informe de Publons, una empresa que hace un seguimiento del trabajo de los revisores.

Durante el debate en la conferencia virtual Researcher to Reader, los argumentos a favor de pagar a los revisores fueron presentados por James Heathers, un antiguo científico investigador en ciencias del comportamiento computacional que ahora es director científico en una startup tecnológica, Cipher Skin. El año pasado, Heathers llamó la atención tras publicar un manifiesto, "The 450 Movement", en el que argumentaba que 450 dólares sería una tarifa razonable para que las editoriales con ánimo de lucro le pagaran por cada revisión por pares. Heathers basó esa cifra, en parte, en lo que cobrarían los consultores empresariales de su campo. Otros revisores podrían negociar cantidades inferiores, añadió.

Junto a Heathers, en el equipo de pro-pago estaba Brad Fenwick, vicepresidente senior de Taylor & Francis, una editorial con ánimo de lucro que cuenta con unas 2.700 revistas. La pareja sostenía que pagar a los revisores podría mejorar algunos de los defectos más conocidos de la revisión por pares, como los largos retrasos en la recepción de las revisiones, que a menudo carecen de profundidad y sustancia.

Sin embargo, el equipo que se opone al pago predijo que las consecuencias serían nefastas si los honorarios de 450 dólares se convirtieran en la norma. Los costes de suscripción se dispararían y proliferarían las revisiones poco éticas, según un equipo que incluye a Alison Mudditt, directora general de PLOS, la editorial sin ánimo de lucro de artículos de acceso abierto, y a Tim Vines, consultor editorial y fundador de DataSeer, una herramienta de intercambio de datos.

A continuación se presentan extractos del debate, que han sido editados para mayor claridad y brevedad. A continuación de los extractos, encontrará los resultados de las encuestas que miden qué parte del público consideró más persuasiva.


Sobre el pago en efectivo frente a otras recompensas

Fenwick: Algunos editores son bien recompensados por sus esfuerzos. Entonces, ¿por qué no se aplicaría el mismo enfoque a los revisores? Las universidades ofrecen al profesorado la libertad de complementar sus ingresos como consultores remunerados y/o participando en empresas con ánimo de lucro. No hay ninguna razón para que su contribución a la industria editorial sea tratada de forma inferior.

Brezo: La revisión por pares es tratada de la misma manera que cualquier otro recurso común antes de ser regulado: el aire, el agua, la tierra, etc. No hay ninguna presión a la baja sobre el uso infinito del trabajo académico. Y la forma más fácil de ejercer esa presión es valorar la tarea no [sólo] con el reconocimiento, sino con la forma tradicional de apoyar el trabajo cualificado en cualquier otra industria, que es el dinero.

Mudditt: [La revisión remunerada tiene] tan poco interés por parte de los investigadores. Una encuesta de Publons de 2018 encontró que solo el 17% de los encuestados seleccionó el pago en efectivo o en especie como algo que los haría más propensos a aceptar solicitudes de revisión. [La principal prioridad, seleccionada por el 45%, fue un reconocimiento más explícito del trabajo de revisión por parte de las universidades o el empleador].

Vines: Hay esfuerzos para recompensar la revisión por pares, y esto sucede todo el tiempo. Los buenos revisores se convierten en editores, su reputación en la comunidad aumenta.


Sobre si las revistas pueden permitirse pagar a los revisores

A.M.: No hay una forma práctica de pagar a los revisores sin arruinar la revisión por pares. 

Las revisiones varían mucho en longitud, calidad y complejidad. ¿Por dónde empezaríamos a evaluar una tarifa adecuada? ¿Por qué elegir 450 dólares? Hay algunos artículos que son tan intrincados que quizá sólo un puñado de expertos en la Tierra pueda revisarlos. Un editor de una gran sociedad me dice que [una tasa de sólo 350 dólares] acabaría con el superávit que devolvían a la sociedad: no se invertiría más en la investigación y los investigadores de la sociedad.

T.V.: Una media de 2,2 revisiones por artículo es muy típica en las revistas. Y [suponiendo que cada revisor reciba 450 dólares,] cada artículo revisado cuesta, por tanto, 990 dólares. Por supuesto, el APC o tasa de procesamiento de artículos [exigida por algunas revistas para que los artículos sean de libre lectura en el momento de su publicación] sólo se paga por los artículos que son aceptados para su publicación, y el coste de la revisión de los rechazados se carga en el APC. Para una revista con una tasa de aceptación del 25%, tienen que revisar cuatro artículos para encontrar el que aceptan. Multiplicando por cuatro nos da 3960 dólares [para cubrir los costes de revisión de cada artículo aceptado].

Imagínese cómo sería esto en toda una industria. El coste adicional para PLOS sería de 14 millones de dólares al año, lo que supondría más del doble de sus gastos anuales totales. Seguramente ese dinero estaría mejor invertido en la propia investigación y en la resolución de nuestros retos globales más acuciantes.

B.F.: Lo que sí podría ocurrir es que se presentaran menos artículos, porque los costes aumentan. Y eso es una gran amenaza para las editoriales que se basan en los APC y que tienen que aceptar muchos artículos sólo para mantener su flujo de caja estable.

El pago a los revisores es un modelo que debe probarse. Es una propuesta de valor: Si produce publicaciones de mayor calidad, y lo hace más rápido, ¿cuál es el valor de eso para la comunidad científica? Y para algunos [revisores], el pago podría ser cero: no lo necesitan.


Sobre los contratos entre revisores y revistas

B.F.: Un contrato que proporciona un intercambio explícito de valor ofrece una certeza muy necesaria en cuanto a los plazos, la calidad y la previsibilidad de la revisión recibida.

A.M.: Es completamente irreal esperar que alguien vaya a tener el tiempo o la experiencia o la escala para poder gestionar y supervisar cientos de miles de nuevos contratos adicionales en todo el sistema editorial. Simplemente no va a suceder.

J.H.: Es muy difícil creer que las empresas que gestionan más de mil millones de descargas anuales [de artículos académicos] se vean imposibilitadas de alguna manera para realizar la gestión de contratos y pagos.


Sobre si pagar a los revisores incentiva un comportamiento poco ético

A.M.: En un modelo de publicación APC, en el que los revisores deben ser pagados incluso si rechazan un artículo, pero la revista no obtiene ingresos, como editor, usted querría encontrar revisores que acepten un artículo para poder recuperar sus costes a través de un 

APC. La perspectiva de ganar dinero rápido también tentaría a algunos revisores a comentar artículos que están fuera de sus áreas, o a decir a los editores lo que creen que quieren oír para que los contraten de nuevo. ... Y justo cuando estamos empezando a ver una sana y muy necesaria experimentación con nuevas formas de revisión, como las revisiones de preprints, éstas probablemente desaparecerían.

J.H.: La idea de que la revisión pagada es de alguna manera inevitablemente burlada por los revisores deshonestos ... asume que un editor los contratará sin verlos ... en ausencia de observar el trabajo que produjeron.

Antes del debate, un sondeo entre 64 miembros del público registró un 41% a favor de pagar a los revisores y un 59% en contra. Después, entre 50 votantes, la balanza se inclinó hacia un 16% a favor del pago y un 84% en contra.

Queda por ver si los editores de revistas en general seguirán siendo igual de pesimistas sobre los pagos. En el Grupo Taylor & Francis, una pequeña selección de revistas centradas en el desarrollo farmacéutico paga a los revisores por las revisiones aceleradas, dice Jennifer McMillan, directora de comunicaciones. La editorial no tiene previsto ampliar el número de revistas que pagan a los revisores. El papel de Fenwick en el debate fue sólo para estimular la discusión, no para presentar la política de la empresa, añade.

Publicado en: 

doi:10.1126/science.abh3175


Jeffrey Brainard

Jeffrey Brainard se incorporó a Science como editor asociado de noticias en 2017. Cubre una serie de temas y edita la sección In Brief de la revista impresa. 

"¡Quemadlo con fuego!" - El uso de ChatGPT «polariza» a los revisores

Publicado en THE Times Higher Education https://www.timeshighereducation.com/news/corrupting-chatgpt-use-polarises-peer-reviewers   Quemadlo...