Mostrando entradas con la etiqueta Inteligencia artificial generativa. Mostrar todas las entradas
Mostrando entradas con la etiqueta Inteligencia artificial generativa. Mostrar todas las entradas

lunes, 8 de diciembre de 2025

Los peligros del uso de IA en la revisión por pares

Publicado en SciELO en Perspectiva
https://blog.scielo.org/es/2025/12/05/los-peligros-del-uso-de-ia-en-la-revision-por-pares/?utm_source=rss&utm_medium=rss&utm_campaign=los-peligros-del-uso-de-ia-en-la-revision-por-pares





Los peligros del uso de IA en la revisión por pares
[Publicado originalmente en Hora Campinas en diciembre de 2025]

Dic 5, 2025 
Carmino Antonio de Souza


En mi intensa vida académica, siempre me encuentro en ambos lados del mostrador, es decir, como autor de artículos e investigaciones y como revisor de artículos enviados a numerosas revistas científicas de todo el mundo para mi opinión. Es un trabajo de gran responsabilidad, ya que siempre estamos comprometidos con la excelencia y la calidad de la información científica y con la mejora del artículo enviado.

El estándar actual en la comunidad editorial académica es que los autores pueden utilizar inteligencia artificial generativa (genAI) en la preparación de los envíos (con algunas salvedades; véase esta declaración de posición de COPE, Committee on Publication Ethics, y las editoriales). Sin embargo, existen restricciones estrictas sobre el uso de IA en la revisión por pares.

Muchas políticas de revistas especifican que los editores y revisores no deben enviar el contenido de los envíos a herramientas genAI, y algunas prohíben completamente su uso en la revisión por pares (por ejemplo, Science) o permiten casos de uso específicos de IA, como la traducción o edición de los propios comentarios de revisión.

¿Por qué este estándar diferente? Las políticas que restringen o prohíben la IA en la revisión por pares mitigan los riesgos que su uso por parte de editores o revisores podría conllevar, como:

  • Violación de la confidencialidad de contenido no publicado y datos sensibles
  • Pérdida de rigor y especificidad en el proceso de evaluación
  • Representación fraudulenta de los resultados de genAI y de los colaboradores en la revisión por pares
  • Potenciación y aceleración de la manipulación de la revisión por pares (p. ej., por parte de las “fábricas de artículos”)

Puede parecer paradójico o incluso hipócrita que revistas y editoriales estén explorando opciones para el uso interno de la IA en la revisión por pares. Una diferencia clave entre el uso interno (por parte del personal de la revista) y el externo (por parte de editores y revisores académicos) es que una revista puede implementar herramientas internas en un entorno tecnológico controlado que protege la seguridad de los datos, de modo que no se inserte contenido confidencial en los conjuntos de entrenamiento, lo que afectaría los resultados de otros usuarios.

Cuando se implementan medidas de seguridad de datos, la IA puede ayudar a mejorar la coherencia con la que las revistas aplican sus estándares y políticas. Por ejemplo, la IA puede detectar y generar informes de revisión que cuestionen problemas como referencias incompletas, no verificables o retractadas, análisis estadísticos problemáticos e incumplimiento de los requisitos de disponibilidad de datos y preinscripción.

Si bien existen varios casos de uso beneficiosos para la IA en el apoyo a la revisión por pares, las personas siguen siendo indispensables para proporcionar una evaluación rigurosa del contenido. Mientras que la IA Gen detecta y promedia el contenido preexistente, las personas innovan y evalúan. Introducimos nuevas ideas y perspectivas, aportamos creatividad, curiosidad e intelecto, y somos capaces de sintetizar, contextualizar, interpretar y criticar en base a conocimientos que abarcan múltiples dominios.

En resumen, las máquinas distan mucho de poder replicar la cognición humana y, por lo tanto, los humanos pueden participar en la revisión por pares y el discurso científico de una manera que las máquinas no pueden. En la práctica, esto significa que las personas pueden identificar problemas que no serían evidentes para un lector automático o un algoritmo, y que pueden ser cruciales para la validez e integridad científicas.

Dicho esto, la transición a un modelo híbrido de revisión por pares, con humanos e IA, podría mitigar los problemas conocidos de la revisión por pares, incluyendo la pesada carga que impone a los académicos y los plazos de revisión más largos de lo ideal. Si la IA cubre los aspectos técnicos de la evaluación, quizás podamos utilizar menos revisores para cubrir aspectos de la revisión por pares que requieren capacidades de función ejecutiva exclusivamente humanas.

Como prueba de concepto de este modelo, una presentación en el Congreso de Revisión por Pares de 2025 abordó la oferta de revisión por pares “Fast Track” de NEJM AI, en la que las decisiones se emiten en un plazo de una semana desde el envío, basándose únicamente en la evaluación del manuscrito por parte de los editores y dos revisiones generadas por IA. Si bien los plazos de entrega de una semana son atractivos, existen varias razones para incluir al menos dos expertos humanos en la revisión por pares, ya sea como editores y/o revisores.

Los autores y los artículos se benefician de evaluaciones que reflejan diferentes perspectivas (humanas); a menudo, se necesitan varias personas para cubrir el tema y la experiencia metodológica necesaria para una evaluación rigurosa. Es importante destacar que contar con dos o más personas involucradas en la revisión por pares también aumenta la probabilidad de que se identifiquen problemas científicos y de integridad importantes, y otorga mayor credibilidad general a las publicaciones y revistas. Además, ofrece cierto grado de protección a los autores, las revistas y la comunidad en general contra problemas que podrían comprometer la revisión por pares, como sesgos personales, conflictos de intereses, revisiones de baja calidad y uso indebido de la revisión por pares para beneficio personal.

La era de la IA puede haber llegado para quedarse, y los editores e investigadores continuarán explorando sus usos, pero se requiere precaución y una cuidadosa consideración en cada etapa del proceso de revisión por pares. Y, en última instancia, nunca reemplazará el conocimiento y el criterio de una persona.

Artículo original en portugués

Os perigos do uso da IA na revisão por pares

Acerca de Carmino Antonio De Souza

Carmino Antonio De Souza es profesor titular de la Unicamp. Fue Secretario de Salud del estado de São Paulo en la década de 1990 (1993-1994) y de la ciudad de Campinas entre 2013 y 2020. Secretario Ejecutivo de la Secretaría Extraordinaria de Ciencia, Investigación y Desarrollo en Salud del gobierno del estado de São Paulo en 2022 y actual Presidente del Consejo Directivo de la Fundación Butantan. Director Científico de la Asociación Brasileña de Hematología, Hemoterapia y Terapia Celular (ABHH). Investigador principal de CEPID-CancerThera, financiado por la FAPESP.

Traducido del original en portugués por Ernesto Spinak.


martes, 11 de noviembre de 2025

La cartera de herramientas de SPRINGER NATURE para detectar artículos sospechosos (uso de IA, plagio, imágenes manipuladas y referencias irrelevantes)

Publicado en Research Information
https://www.researchinformation.info/news/springer-nature-expands-portfolio-of-research-integrity-tools/



Springer Nature amplía su cartera de herramientas de integridad en la investigación

17 de julio de 2025


Springer Nature ha lanzado una nueva herramienta para detectar frases no estándar en los manuscritos enviados a sus revistas y libros.


La herramienta detecta frases inusuales construidas de forma torpe o excesivamente enrevesada, por ejemplo «conciencia falsificada» en lugar de «inteligencia artificial». Tales frases son indicadores de que los autores han utilizado herramientas de parafraseo para eludir la detección de plagio. Si la herramienta detecta varias frases no estándar, se retirará el envío.


La herramienta se ha desarrollado utilizando el catálogo público de frases tortuosas del Problematic Paper Screener (PPS) creado por Guillaume Cabanac, Cyril Labbé y Alexander Magazinov y se ha sometido a múltiples rondas de pruebas y validación para proporcionar una evaluación fiable de los envíos en todas las disciplinas académicas.

 

Tamara Welschot, Jefa de Integridad de la Investigación y Prevención de Springer Nature, comentó: "La investigación falsa es un reto que nos afecta a todos en la industria editorial y todos tenemos que trabajar juntos para combatirlo. El desarrollo de esta herramienta ha sido un proyecto de larga duración en el que han colaborado estrechamente el grupo de integridad de la investigación y varios equipos tecnológicos de Springer Nature, basándose en el importante trabajo de los detectives de la integridad de la comunidad académica.


"Agradecemos a Cabanac, Labbé y Magazinov sus esfuerzos por desarrollar el Problematic Paper Screener y poner de relieve ante la comunidad editorial en general los artículos que contienen frases torturadas. Nuestra herramienta identifica estos artículos problemáticos en el momento de su presentación, evitando que se publiquen y ahorrando el valioso tiempo de los editores y revisores."


La herramienta de detección de frases no estándar es la última incorporación al conjunto de soluciones de Springer Nature para la integridad de la investigación y complementa las herramientas ya existentes: un detector de textos sin sentido, Snappshot (que identifica imágenes duplicadas o manipuladas) y una herramienta de comprobación de referencias irrelevantes (irrelevant reference checker tool).  Estas herramientas se han desarrollado internamente como parte del compromiso permanente de Springer Nature de garantizar la integridad de los trabajos que publica. Este compromiso incluye la inversión en un equipo de expertos en rápido crecimiento y el desarrollo continuo de tecnología.


Springer Nature también se ha comprometido a colaborar con la comunidad editorial en general, como organización colaboradora en el STM Integrity Hub, que facilita el intercambio de conocimientos y datos y desarrolla herramientas tecnológicas compartidas, y al que Springer Nature ha donado su detector de textos sin sentido para su uso en todo el sector.


***********************

Springer Nature expands portfolio of research integrity tools

17 July 2025


Springer Nature has launched a new tool for use across submissions to its journals and books to detect non-standard phrases in submitted manuscripts.

The tool works by detecting unusual phrases that have been awkwardly constructed or are excessively convoluted, for example ‘counterfeit consciousness’ instead of ‘artificial intelligence’. Such phrases are indicators that authors have used paraphrasing tools to evade plagiarism detection. If a number of non-standard phrases are identified by the tool, the submission will be withdrawn.  

The tool has been developed using the public tortured phrases catalogue of the Problematic Paper Screener (PPS) created by Guillaume Cabanac, Cyril Labbé and Alexander Magazinov and has undergone multiple rounds of testing and validation to provide a reliable assessment of submissions across academic disciplines.  

Tamara Welschot, Head of Research Integrity, Prevention at Springer Nature, commented: “Fake research is a challenge that affects all of us in the publishing industry and we all need to work together to combat it. Developing this tool has been a long-running project involving close collaboration between the research integrity group and several technology teams at Springer Nature, building upon important work by integrity sleuths from the academic community. 

“We thank Cabanac, Labbé and Magazinov for their efforts in developing the Problematic Paper Screener and highlighting papers containing tortured phrases to the wider publishing community. Our tool identifies these problematic papers at submission, preventing them from being published and saving the editors and reviewers’ valuable time.”

The non-standard phrases detector tool is the newest addition to Springer Nature’s suite of research integrity solutions and complements existing tools; a nonsense text detector,  Snappshot (which identifies duplicate or manipulated images), and an irrelevant reference checker tool.  These tools have been developed in-house as part of Springer Nature’s ongoing commitment to ensure the integrity of the work it publishes. This commitment includes investment in a rapidly growing, expert team and ongoing technology development.  

Springer Nature has also committed to collaborating with the wider publishing community, as a contributing organisation in the STM Integrity Hub, which facilitates knowledge and data exchange and develops shared technology tools, and to which Springer Nature has donated its nonsense text detector for use across the sector.

Indicadores de calidad para revistas de ciencias sociales en la era de la bibliometría narrativa

  Circulado en lista  ThinkEPI ThinkEPI   < 000011958d4229c1-dmarc-request@listserv.rediris.es > Indicadores de calidad para revistas ...