Mostrando entradas con la etiqueta Herramientas digitales. Mostrar todas las entradas
Mostrando entradas con la etiqueta Herramientas digitales. Mostrar todas las entradas

jueves, 26 de septiembre de 2024

PEER REVIEW E INTELIGENCIA ARTIFICIAL

Investiga. Monográficos sobre investigación. Biblioteca de la Universidad de Sevilla
https://bib.us.es/sites/bib3.us.es/files/investiga_sept_2024.pdf#page=1


PEER REVIEW E INTELIGENCIA ARTIFICIAL

Introducción

Desafíos del peer review: un instrumento tan necesario como molesto

Peer review e inteligencia artificial

Cómo ayuda la IA a la revisión por pares

Bibliografía

Novedades


Introducción


Por segundo año consecutivo, la Biblioteca de la Universidad de Sevilla se adhiere a la iniciativa Peer Review Week. Durante la semana del 23 al 27 de septiembre de 2024, este evento anual celebrará y redundará en el valor de la revisión por pares que reúne a las partes interesadas en la comunicación académica, incluidos editores académicos, asociaciones, instituciones y personal investigador.


Este año, esta semana está dedicada al tema “Innovación y tecnología en la revisión por pares”, con lo que se pretende debatir sobre asuntos como los siguientes:


• ¿Se puede utilizar la IA de forma que complemente el valor que aporta el revisor?


• ¿Cómo se puede utilizar para ampliar el grupo de revisores y ofrecer igualdad de

oportunidades a los académicos de países subrepresentados?


• ¿Es posible abordar la crisis de integridad de la investigación en la industria con la ayuda de nuevos enfoques y tecnologías?


• De cara al futuro, ¿podemos esperar un enfoque más colaborativo en el que la tecnología complemente la experiencia humana en la revisión por pares?

Como ya hicimos el pasado año con el monográfico INVESTIGA sobre "Peer Review y Ciencia Abierta", volvemos a colaborar en el debate abierto por la Peer Review Week con este monográfico sobre nuevas tecnologías y aplicaciones en la revisión por pares, en la que abarcaremos diferentes aspectos en los que la tecnología puede ayudar a la revisión por pares, centrándonos, especialmente, en cómo afecta la aparición de la inteligencia artificial generativa en este proceso.


Recomendamos, además, seguir las actividades de la Semana de Revisión por Pares 2024 anunciadas en su web, así como seguir las últimas novedades en las redes sociales a través de @PeerRevWeek y con los hashtags: #PeerReviewWeek y #AIinPeerReview.


Desafíos del peer review: un instrumento tan necesario como molesto


El sistema de revisión por pares está siendo cuestionado debido a diversos problemas que enfrenta y que de momento están lejos de poder resolverse. A pesar de no haberse encontrado un sistema de evaluación mejor, en los últimos años se han puesto en evidencia y se han resaltado algunas de sus debilidades, al tiempo que aumenta la presión por publicar. 


Podemos destacar, entre las debilidades de la revisión por pares, las siguientes (Clarisó Viladrosa, 2014; García-Perdomo y López-Ramos, 2021): 


• Tiempo de las respuestas: la revisión es un proceso riguroso, que consume tiempo. 

• Dificultad para encontrar revisores. 

• Rechazo de ideas poco convencionales. 

• Inconsistencia entre dos o más revisiones. 

• Calidad de las revisiones. 

• Riesgo de malas prácticas por parte de los revisores. 

• Sesgos en la revisión, al utilizar criterios diferentes en función de la nacionalidad, género, etc. de los autores del artículo en revisiones que no son doble ciego


Aunque existen motivaciones, tanto altruistas como egoístas, para llevar a cabo una revisión (Codina Bonilla, 2024), el sistema de publicación científica pasa por un momento difícil debido a la cantidad de manuscritos que se envían y la dificultad para encontrar revisores y agilizar los tiempos.


Que sea una actividad no remunerada es, a menudo, una disuasión al encontrar revisores. Si bien algunas editoriales han comenzado a ofrecer ciertas ventajas a las personas que revisan artículos en sus revistas (como descuentos en APCs, etc.) con el fin de mejorar sus tiempos de revisión, esto no ha mejorado mucho la situación y tiene su contrapartida en aquellas revistas que no pertenecen a grandes editoriales y no cuentan con recursos para ofrecer este tipo de alicientes. 


Por otra parte, la revisión por pares es una actividad que requiere un gran esfuerzo por parte del revisor y, como hemos visto, puede llegar a consumir mucho tiempo, retrasando los tiempos de respuesta y alargando los plazos de publicación. 


Estos retrasos en la revisión llevan a grandes cuellos de botella, especialmente en aquellas revistas mejor situadas en los sistemas de indexación. 


Pese a los inconvenientes, la revista como medio de difusión de los resultados científicos y la revisión por pares como forma de garantizar la calidad de lo publicado se mantiene como la forma más fiable –que no infalible- y rápida de comunicar la ciencia, garantizar su calidad y asegurar el avance científico. Como afirma Clarisó Viladrosa (2014), el peer review "es el peor sistema de selección de artículos científicos… a excepción de todos los demás que se han ensayado". Así pues, el reto es mantener este sistema, minimizando sus inconvenientes.  


Peer Review e inteligencia artificial


En este contexto, se ha planteado la posibilidad de que la tecnología permita mejorar los procesos de revisión de los artículos científicos, siendo la Inteligencia Artificial la que, por su potencialidad, más expectativas despierta. La introducción de la Inteligencia Artificial en la revisión ha generado, cómo no, un debate tanto sobre la oportunidad como sobre la potencialidad de ésta para realizar una tarea que requiere de un gran esfuerzo intelectual y de conocimientos específicos.


Cárdenas (2023) resume el debate sobre el uso de la IA en la evaluación en dos posiciones: 


  • Los contrarios al uso de la IA en la evaluación del conocimiento científico arguyen que los modelos de lenguaje de gran tamaño (LLM) son opacos -se desconoce con qué datos han sido entrenados-, y sesgados al estar basados en datos pasados. 


  • Los que defienden el uso de la IA en la revisión de artículos científicos tienen dos argumentos principales, que se basan en la reducción del tiempo de evaluación y en que “el conocimiento que un revisor humano tiene sobre un tema puede ser parcial u obsoleto, mientras que herramientas de IA especializadas pueden valorar de forma más global al tener acceso a grandes bases de datos científicas”. 


Pero cuando hablamos de la introducción de la IA en el proceso de revisión, no nos referimos únicamente a software o aplicaciones específicamente desarrolladas para llevar a cabo una revisión completa de los envíos. En los últimos años han ido apareciendo diferentes herramientas basadas en modelos de procesamiento de lenguaje natural (PLN) o en grandes modelos lingüísticos (LLM) que apoyan o automatizan diferentes aspectos de este proceso, desde la detección del plagio hasta la revisión de las referencias. Kousha y Thelwal (2024), tras analizar diferentes herramientas y estudios sobre el tema, concluyen que la inteligencia artificial aún está lejos de poder reemplazar a los revisores humanos. No obstante, afirman que las herramientas de IA disponibles para la revisión pueden ser útiles para la detección rápida de errores obvios, la revisión gramatical o para la comprobación metodológica o estadística, facilitando ciertas tareas a los revisores y acortando el tiempo empleado por éstos. 


Cómo ayuda la IA a la revisión por pares


Si bien todavía no se puede confiar en la IA para hacer revisiones completas, existen numerosas herramientas que pueden facilitarla. Estas herramientas ofrecen una amplia gama de funcionalidades que optimizan y mejoran la calidad de las evaluaciones.


En el siguiente listado se muestran, a modo de ejemplo, algunas aplicaciones según la ayuda que pueden prestar a la revisión (COPE, 2023 ; Kousha & Thelwall, 2024) : 

[Este listado no pretende ser exhaustivo y las aplicaciones mencionadas pueden estar sujetas a cambios y
actualizaciones propias del rápido avance de estas tecnologías. La Biblioteca no ha testeado estas aplicaciones y pueden
estar sujetas a pago o suscripción.]

Rechazo automático de manuscritos deficientes


iThenticate y Turnitin (suscrito por la US) son herramientas que utilizan modelos de IA para la detección de plagio y pueden integrarse en los sistemas de gestión de manuscritos para identificar automáticamente trabajos que no cumplen con los estándares de originalidad. Además, se están desarrollando herramientas más avanzadas. 

Asistencia en la detección de sesgos y errores 

Herramientas emergentes como AI Fairness 360 de IBM están diseñadas para detectar sesgos en datos y modelos. Aunque más comúnmente utilizadas en análisis de datos, estas herramientas pueden adaptarse para revisar manuscritos en busca de sesgos metodológicos o de interpretación en estudios científicos.

Generación de informes de revisión

ChatGPT se puede utilizar para redactar borradores iniciales de revisiones un revisor podría usar ChatGPT para generar un resumen de los puntos clave de un manuscrito y luego afinar ese resumen con detalles adicionales basados en su propio juicio y experiencia. 

Verificación de la estructura del manuscrito 

Penelope.ai verifica si la estructura de un manuscrito cumple con las guías de presentación de la revista, incluyendo la página del título, el resumen, el estilo de citación, referencias, tablas y figuras, y otra información relevante. Esto reduce la necesidad de revisiones manuales por parte de los revisores, editores o editores de la revista.

Mejora lingüística de los informes y accesibilidad para revisores no nativos
Herramientas como Grammarly y Writefull (suscrito por la Universidad de Sevilla) ayudan a mejorar la calidad gramatical, la claridad y la coherencia del lenguaje. Se pueden usar
para revisar el informe de revisión en busca de errores gramaticales y mejorar el tono para que sea más académico y claro antes de enviar la evaluación final.

Coincidencia de referencias con citas en el texto

Recite verifica y resalta automáticamente si las citas en el texto del manuscrito coinciden con la lista de referencias y viceversa, asegurando la precisión en la citación y reduciendo
errores comunes en la preparación del manuscrito.

Estandarización de formatos de revisión

OpenAI Codex puede ser utilizada para crear formatos de revisión estándar que faciliten la comparación y evaluación. Por ejemplo, un editor podría usar Codex para generar un formato de plantilla de revisión con secciones predefinidas que los revisores deben completar, asegurando así una uniformidad en la estructura de los informes. 

Verificación estadística automatizada

StatCheck detecta errores estadísticos en los trabajos presentados, lo que permite a los revisores identificar errores en los análisis estadísticos y verificar la plausibilidad de los resultados presentados en los artículos.

Verificación de transparencia y reproducibilidad

Dimensions Research Integrity preCheck es una herramienta que analiza manuscritos enviados en busca de evidencia de transparencia y reproducibilidad, como declaraciones
de acceso a datos y la mención de las versiones del software utilizado, ayudando a los revisores a evaluar la solidez y la replicabilidad de la investigación presentada

Estas herramientas de IA ofrecen una variedad de funciones que pueden mejorar la eficiencia y la calidad del proceso de revisión por pares en la publicación académica. También pueden ayudar al personal investigador como guías en la elaboración de sus manuscritos. Sin embargo, es fundamental que su implementación esté bien gestionada para mantener la integridad del proceso y garantizar que las decisiones editoriales sigan siendo justas y precisas.

Como es obvio, hay que tener en cuenta que el uso de estas herramientas tiene implicaciones éticas importantes. Estas herramientas suelen implicar la manipulación o procesamiento de
información sensible, por lo que es fundamental considerar aspectos como la privacidad y la propiedad intelectual. Esto es especialmente relevante cuando se utilizan en la revisión por
pares, ya que pueden aplicarse sobre trabajos de terceros o implicar el análisis de datos que no nos pertenecen o que están sujetos a protección legal. Recomendamos, por lo tanto, que su uso sea cuidadoso y siempre en cumplimiento con las normativas vigentes sobre confidencialidad, protección de datos y propiedad intelectual.

Bibliografía
Cárdenas, J. (2023). Inteligencia artificial, investigación y revisión por pares: escenarios futuros y estrategias de acción. Revista Española de Sociología, 32(4), a184.
https://doi.org/10.22325/fes/res.2023.184

COPE (13 de octubre de 2023). Artificial intelligence (AI) and peer review. https://youtu.be/HJYB1IaS598?si=NPoSpaN-sN5apxvY

García-Perdomo, H. A., & López-Ramos, H. E. (2021). La Importancia de la Revisión por Pares para Avanzar en Ciencia. 

Revista Urología Colombiana Colombian Urology Journal, 30(02), 087-088. https://doi.org/10.1055/s-0041-1730409

Kousha, K. and Thelwall, M. (2024). Artificial intelligence to support publishing and peer review: A summary and review. Learned Publishing, 37(1), 4-12. https://doi.org/10.1002/leap.1570




jueves, 19 de septiembre de 2024

"How Equitable Is It?": Nueva herramienta para evaluar la equidad en los modelos de comunicación académica

Publicado en blog SciELO en Perspectiva
https://blog.scielo.org/es/2024/09/18/nueva-herramienta-para-evaluar-la-equidad-en-los-modelos-de-comunicacion-academica/ 



Nueva herramienta para evaluar la equidad en los modelos de comunicación académica


Por cOAlition S

Hoy se lanza en la conferencia OASPA 2024 una nueva herramienta en línea diseñada para evaluar la equidad de los modelos de comunicación académica. La herramienta How Equitable Is It?1 (¿Qué tan abierto es?), desarrollada por un grupo de trabajo de múltiples partes interesadas, compuesto por bibliotecarios, representantes de consorcios de bibliotecas, financiadores y editores, y convocado por cOAlition SJisc y PLOS tiene como objetivo proporcionar un marco para evaluar los modelos de comunicación académica y acuerdos sobre el eje de la equidad.

La herramienta, que se inspiró en el cuestionario marco HowOpenIsIt?,2 está dirigido a instituciones, consorcios de bibliotecas, financiadores y editores, es decir, las partes interesadas que invierten o reciben fondos para servicios editoriales. Ofrece a los usuarios la oportunidad de calificar modelos y disposiciones de comunicación académica según siete criterios:

  • Acceso a lectura
  • Publicación en Acceso Abierto inmediato
  • Maximizar la participación
  • Derechos de reutilización
  • Transparencia de precios y tarifas
  • Promover y fomentar prácticas de investigación abiertas: datos y código.
  • Promoción y fomento de prácticas de investigación abiertas: preprints y revisión abierta por pares.
Objetivos clave

Una de las principales ambiciones del Grupo de Trabajo era desarrollar algo práctico para ayudar a las partes interesadas a evaluar los modelos y acuerdos de comunicación académica sobre el eje de la equidad y hacer que esta información estuviera disponible de manera que facilitara la comparación entre diferentes modelos. En lugar de prescribir el resultado, los usuarios pueden confiar en su propio juicio sobre cómo los modelos o arreglos se califican según criterios equitativos: detrás de la herramienta no hay una base de datos precargada de modelos, revistas o arreglos.

Robert Kiley, Jefe de Estrategia de cOAlition S y uno de los copresidentes del Grupo de Trabajo, comentó:

Si bien existe un amplio consenso en que un modelo en el que ni el autor ni el lector pagan una tarifa es más equitativo que una suscripción o el enfoque basado en APC [article processing charge, tasa de procesamiento de artículos], determinar qué otros componentes hacen que un modelo sea más equitativo que otro es un desafío. La Herramienta de Equidad lanzada hoy ayuda a los usuarios a considerar una variedad de criterios para alejarse de modelos y acuerdos no equitativos basados en artículos para facilitar una participación más equitativa en el intercambio de conocimientos.

Roheena Anand, Directora Ejecutiva de Ventas y Desarrollo Editorial Global de PLOS, y otra de las presidentas del grupo de trabajo, agregó:

Estamos encantados de lanzar esta versión beta de Herramienta de Equidad. Una de las fortalezas del grupo de trabajo es su representación de los puntos de vista de múltiples partes interesadas: financiadores, bibliotecarios y editores. Muchas conversaciones sólidas entre los miembros llevaron a esta iteración inicial y esperamos recibir más comentarios de la comunidad en general.

Anna Vernon, Directora de Licencias de Investigación de Jisc y también copresidenta del grupo de trabajo, expresó entusiasmo por el impacto potencial de la herramienta:

En Jisc estamos interesados en utilizar esta herramienta para informar las decisiones de inversión de nuestra comunidad en publicaciones académicas.

Cómo funciona la herramienta

Con base en los criterios mencionados anteriormente, la herramienta How Equitable Is It?1 incita a los usuarios a considerar en qué medida el modelo (y el flujo de financiamiento asociado) que están evaluando facilita (o restringe) la participación equitativa en el intercambio de conocimientos. Los usuarios califican cada criterio en una escala desde “menos equitativo” hasta “más equitativo”, y reciben una puntuación de equidad general al finalizar, junto con un resumen de sus respuestas. Una descripción detallada de los criterios y sus definiciones está disponible en: em How Equitable Is It? – A Draft Framework For Assessing Scholarly Communication Models on the Axis of Equity.3

Se solicita retroalimentación

La publicación actual de la herramienta How Equitable Is It?1 es una versión beta, abierta a comentarios y mejoras. Se anima a las partes interesadas del ecosistema de publicaciones académicas a probar la herramienta y proporcionar comentarios hasta el 28 de octubre de 2024 a través del formulario Feedback form on the “How Equitable Is It?” tool4 para ayudar a refinar los criterios y aumentar su utilidad. El Grupo de Trabajo revisará todos los aportes y publicará una versión revisada a principios de 2025.

Contacto para la prensa

Maria Karatzia
cOAlition S, Communication Officer
maria.karatzia@coalition-s.org

Notas

1. How Equitable Is It?: https://coalitions.typeform.com/Equity-Tool

2. HowOpenIsIt? A Guide for Evaluating the Openness of Journals: https://sparcopen.org/our-work/howopenisit/

3. How Equitable Is It? – A Draft Framework For Assessing Scholarly Communication Models on the Axis of Equity: https://www.coalition-s.org/wp-content/uploads/2024/09/HowEquitableIsIt_Framework_criteria_definitions.pdf

4. Feedback form on the “How Equitable Is It?” tool: https://coalitions.typeform.com/Equity-Feedback

Referencias

Beyond article-based charges: working group established [online]. cOAlition S. 2023 [viewed 18 September 2024]. Available from: https://www.coalition-s.org/beyond-article-based-charges-working-group-established/

Moving away from APCs: a multi-stakeholder working group convened by cOAlition S, Jisc and PLOS [online]. cOAlition S. 2023 [viewed 18 September 2024]. Available from: https://www.coalition-s.org/moving-away-from-apcs/

Enalces externos

Feedback form on the “How Equitable Is It?” tool: https://coalitions.typeform.com/Equity-Feedback

How Equitable Is It? – A Draft Framework For Assessing Scholarly Communication Models on the Axis of Equity: https://www.coalition-s.org/wp-content/uploads/2024/09/HowEquitableIsIt_Framework_criteria_definitions.pdf

How Equitable Is It?: https://coalitions.typeform.com/Equity-Tool

HowOpenIsIt? A Guide for Evaluating the Openness of Journals: https://sparcopen.org/our-work/howopenisit/


jueves, 20 de junio de 2024

DOAS de DIAMAS: nueva herramienta de autoevaluación de revistas de Acceso Abierto Diamante

Publicado en DIAMAS
https://diamasproject.eu/introducing-doas-the-benchmark-for-diamond-open-access-quality/



Presentación de DOAS: el punto de referencia para la calidad del acceso abierto Diamond

El Diamond OA Standard (DOAS) es una nueva herramienta creada por el proyecto DIAMAS para promover la calidad en la publicación en acceso abierto (AA) Diamond. DOAS, que sirve tanto de guía técnica como de recurso práctico de evaluación comparativa, combina directrices exhaustivas con una herramienta de autoevaluación para elevar los estándares en la publicación académica.


Hemos publicado una hoja informativa (a factsheet) para ayudarle a entender DOAS.


 También puede ver un breve vídeo que muestra la herramienta de autoevaluación.

https://www.youtube.com/watch?v=_RUwV_bcFAI 


Visite la herramienta de autoevaluación aquí: https://diamas.fecyt.es/  


DOAS: un marco de calidad integral


DOAS se basa en criterios esenciales y comprobables en siete componentes clave de la publicación académica para garantizar prácticas equitativas, transparentes y de alta calidad. Estos componentes incluyen:


  1. Financiación

  2. Propiedad legal, misión y gobernanza

  3. Ciencia abierta

  4. Gestión editorial, calidad editorial e integridad de la investigación

  5. Eficiencia del servicio técnico

  6. Visibilidad, comunicación, marketing e impacto

  7. Equidad, diversidad, inclusión y pertenencia (EDIB), multilingüismo y equidad de género.


Cada una de estas áreas está respaldada por criterios y directrices detallados, elaborados a partir de un análisis riguroso de las normas y mejores prácticas existentes y perfeccionados por los comentarios de la comunidad. Al abordar estos componentes básicos, DOAS aboga por un modelo de publicación accesible y gobernado por la comunidad académica. Las normas se esbozaron en el proyecto DIAMAS EQSIP.


Operacionalización de DOAS: la herramienta de autoevaluación


La introducción de la herramienta de autoevaluación DOAS supone un paso importante para garantizar el cumplimiento de las normas Diamond OA de alta calidad. Esta herramienta permite a los editores evaluar su cumplimiento de estas normas, proporcionando una vía clara para mejorar sus prácticas editoriales. Las instituciones pueden utilizar este recurso para identificar puntos fuertes y débiles, facilitando la mejora hacia estándares de publicación de nivel Diamante OA.


Cómo implementar DOAS:

  • Revisión: Examine las normas basadas en pruebas en los siete componentes básicos de la publicación académica.

  • Evaluar: Utilice la herramienta de autoevaluación para evaluar el cumplimiento de las normas de calidad Diamond OA.

  • Transformar: Transite sus operaciones de publicación a un modelo equitativo. Diamondice sus revistas.

  • Evalúe: Los editores y las revistas pueden evaluar su adhesión a DOAS, identificando áreas de mejora. 


Por qué utilizar DOAS:

  • Integridad y normas: Protege la integridad de la publicación académica mediante la adhesión a normas basadas en la evidencia desarrolladas con la consulta de la comunidad.

  • Apoyo a la publicación Diamante: Garantiza altos estándares y apoya el crecimiento de la publicación Diamond OA.

  • Transparencia: Mantiene la transparencia en la gobernanza, los procesos y los flujos de trabajo, esencial para actividades de publicación creíbles y éticas.


Le animamos a utilizar la herramienta de autoevaluación y a compartirla con los directores y editores de revistas. DOAS le ofrece las herramientas y normas para garantizar la máxima calidad en la publicación Diamond OA.



https://diamasproject.eu/wp-content/uploads/2024/06/DOAS-FACTSHEET-FINAL.pdf 

*****************************************************************

Introducing DOAS: The Benchmark for Diamond Open Access Quality

The Diamond OA Standard (DOAS) is a new tool brought to you by the DIAMAS project to promote quality in Diamond open access (OA) publishing. Serving as both a technical guide and a practical benchmarking resource, DOAS combines comprehensive guidelines with a self-assessment tool to elevate standards in scholarly publishing.

We have published a factsheet to help you understand DOAS.

You can also watch a short video which showcases the self-assessment tool.

https://www.youtube.com/watch?v=_RUwV_bcFAI 


Visit the self-assessment tool itself here

Understanding DOAS: A Comprehensive Quality Framework

DOAS is based on essential and testable criteria across seven key components of scholarly publishing to ensure equitable, transparent, and high-quality practices. These components include:

  1. Funding

  2. Legal Ownership, Mission, and Governance

  3. Open Science

  4. Editorial Management, Editorial Quality, and Research Integrity

  5. Technical Service Efficiency

  6. Visibility, Communication, Marketing, and Impact

  7. Equity, Diversity, Inclusion, and Belonging (EDIB), Multilingualism, and Gender Equity

Each of these areas is supported by detailed criteria and guidelines developed through rigorous analysis of existing standards and best practices, further refined by community feedback. By addressing these core components, DOAS advocates for a publishing model that is both accessible and governed by the academic community. The standards were outlined in DIAMAS project deliverable EQSIP

Operationalising DOAS: The Self-Assessment Tool

The introduction of the DOAS Self-assessment tool marks a significant step in ensuring adherence to high-quality Diamond OA standards. This tool enables publishers to evaluate their compliance with these standards, providing a clear pathway to enhancing their publishing practices. Institutions can use this resource to identify strengths and weaknesses, facilitating improvement towards Diamond OA-level publishing standards.

How to Implement DOAS:
  • Review: Examine evidence-based standards across the seven core components of scholarly publishing.

  • Assess: Utilise the self-assessment tool to evaluate compliance with Diamond OA quality standards.

  • Transform: Transition your publishing operations to an equitable model. Diamondise your journals!

  • Evaluate: Publishers and journals can assess their adherence to DOAS, identifying areas for improvement.  

Why Use DOAS:
  • Integrity and Standards: Protects the integrity of scholarly publishing by adhering to evidence-based standards developed with community consultation.

  • Support for Diamond Publishing: Ensures high standards and supports the growth of Diamond OA publishing.

  • Transparency: Maintains transparency in governance, processes, and workflows, essential for credible and ethical publishing activities.

We encourage you to use the self-assessment tool and share it with journal editors and publishers! DOAS allows you the tools and standards to ensure the highest quality in Diamond OA publishing.

Download the factsheet https://diamasproject.eu/wp-content/uploads/2024/06/DOAS-FACTSHEET-FINAL.pdf 

"¡Quemadlo con fuego!" - El uso de ChatGPT «polariza» a los revisores

Publicado en THE Times Higher Education https://www.timeshighereducation.com/news/corrupting-chatgpt-use-polarises-peer-reviewers   Quemadlo...