jueves, 14 de mayo de 2026

Aumentaron 33% los envíos de manuscritos para publicación en revistas científicas (datos ScholarOne) ¿Eso es bueno?

Publicado en The Scholarly Kitchen
https://scholarlykitchen.sspnet.org/2026/05/13/guest-post-is-growth-always-good-news-2026-article-submission-surges/?informz=1&nbd=567d61ec-36ea-4197-85eb-43e2bd36d175&nbd_source=informz




Artículo invitado ¿El crecimiento es siempre una buena noticia? Aumento de los envíos de artículos en 2026

                                       

Por Josh Dahl

13 de mayo de 2026


Nota del editor: La entrada de hoy es de Josh Dahl, vicepresidente sénior y director general de ScholarOne en Silverchair.


En el primer trimestre de 2026, las revistas de la plataforma ScholarOne Manuscripts recibieron un 33 % más de envíos que en el mismo periodo de 2025. Pero la tasa de crecimiento agregada no refleja lo que realmente ocurrió: el aumento interanual se duplicó con creces en comparación con el año anterior, pasando del 17 % en 2025 al 33 % en 2026. El crecimiento de la plataforma se está acelerando a un ritmo que muchos editores y directores de revistas calificarían de insostenible.


El optimista que hay en mí querría interpretar esto como un auge de la investigación. Más investigación, una comunidad científica más sólida, todo lo cual conduce al progreso y al descubrimiento para nuestro mundo. El pesimista que hay en mí quiere levantar las manos al aire y gritar al vacío sobre el fraude comercializado y la basura generada por la IA. Pero, al fin y al cabo, soy pragmático, así que, en lugar de eso, me he fijado en las cifras.


La distribución de los resultados agregados es más reveladora. Las revistas que crecen más rápidamente son las más pequeñas y menos selectivas: las revistas que recibieron menos de 15 propuestas por trimestre en 2025 registraron un aumento del 81 % en el primer trimestre de 2026. Las revistas que recibieron más de 1.500 registraron un crecimiento del 20 %. Esa asimetría no prueba nada por sí sola. Es coherente con un crecimiento legítimo, con investigadores de campos en expansión que encuentran nuevos canales, con una capacidad de investigación global que madura de formas que favorecen naturalmente a las revistas accesibles. También es el patrón que cabría esperar si una parte significativa del aumento reflejara envíos de bajo esfuerzo, asistidos por IA, dirigidos a las revistas menos equipadas para descartarlos. Los datos no nos permiten determinar qué explicación es la más plausible. Pero el patrón es lo suficientemente sostenido y concentrado como para justificar un análisis más detallado de lo que el sistema está absorbiendo realmente.


El número de envíos por sí solo no nos dice mucho sobre la calidad, pero las tasas de rechazo a primera vista ofrecen un indicador razonable. Entre 2022 y 2025, los rechazos a primera vista aumentaron un 72 %, casi el doble del crecimiento del 43 % registrado en el total de decisiones sobre envíos durante el mismo periodo. En 2022, los editores emitieron 1,69 rechazos de primera mano por cada aceptación. En 2025, esa proporción había aumentado hasta 2,49. El filtro editorial está trabajando más, detectando más y rechazando a un ritmo más rápido que el de crecimiento de las propuestas.


¿Qué significa todo esto?


Desde mi punto de vista, el aumento repentino de las propuestas no es principalmente un problema tecnológico. Es una prueba de que el contrato social entre la revisión por pares y los investigadores ya se encontraba bajo presión, y la IA ha puesto de manifiesto esa tensión a gran escala.


La revisión por pares se basa en un supuesto fundamental: el autor es quien ha elaborado lo que ha enviado, respalda su contenido y puede defender las afirmaciones, localizar las fuentes y explicar la metodología. Todo el sistema se sustenta en ese supuesto de propiedad intelectual individual. Ese supuesto se ha vuelto inestable, porque la relación entre un investigador y el texto que envía se ha vuelto verdaderamente ambigua, y las normas que rigen esa relación no han logrado adaptarse a la tecnología que la sustenta.  


El abanico de participación de la IA en la preparación de manuscritos abarca desde una ligera corrección gramatical hasta la generación completa de borradores, sin que exista un consenso estandarizado sobre dónde termina la ayuda aceptable y dónde comienza el uso problemático. Los investigadores se ven obligados a tomar decisiones en ese terreno ambiguo a diario. Consideremos el problema de las citas inventadas: los grandes modelos de lenguaje generan referencias que parecen plausibles pero que no existen, con tal fluidez que un investigador que confíe en la redacción asistida por IA podría no detectar el error antes de la presentación. El autor no inventó una cita en ningún sentido significativo o intencionado. Pero presentó un manuscrito que contenía una. Los requisitos actuales de certificación de los autores no cuentan con un mecanismo claro para ese escenario. La infraestructura de rendición de cuentas presenta una laguna ante este nuevo comportamiento.

 

Creo que el sector está subestimando la dimensión psicológica que entra en juego aquí. Existen estudios significativos sobre cómo la fricción actúa como un filtro ético. Contratar a una fábrica de trabajos académicos requiere una transgresión deliberada: encontrar un proveedor, pagar, coordinar, saber que has cruzado una línea que la mayoría de la gente reconoce como tal. Utilizar la IA para redactar un manuscrito se sitúa en un plano moral genuinamente diferente. La racionalización es casi automática: la investigación es mía, las ideas son mías, la herramienta solo me ha ayudado con la redacción. No creo que la mayoría de los investigadores que utilizan la IA de esta manera se consideren malos actores. Creo que están tomando decisiones en un entorno en el que la presión para producir es intensa y en el que el coste de entrada se ha reducido casi a cero. Esa combinación es más corrosiva para la integridad de la investigación que la mala intención, porque se amplía de formas que la mala intención no lo hace. 


Cada manuscrito que entra en el sistema genera una demanda posterior sobre dos recursos que ya se encuentran bajo presión: la capacidad de los revisores y el trabajo editorial. El agotamiento de los revisores y la disminución de las tasas de respuesta son fenómenos anteriores a este aumento repentino. Un incremento del volumen del 33 % agrava aún más ese déficit existente. Y la falta de rendición de cuentas también se extiende hacia abajo: los revisores están utilizando la IA para gestionar sus propias cargas de trabajo, por las mismas razones que los autores. Un manuscrito que contenga una cita inventada, revisado por alguien que utilice la ayuda de la IA para gestionar una revisión que no tiene tiempo de leer con detenimiento, puede que nunca ponga de manifiesto el problema. El control de calidad en el que se basa el sistema se lleva a cabo en las mismas condiciones de ambigüedad que generaron el problema en la fase anterior.


El problema de la carga de trabajo editorial es más grave, y creo que es la consecuencia menos comentada de este auge. Las revistas que están experimentando un crecimiento desproporcionado son precisamente aquellas con menos infraestructura: editores a tiempo parcial, miembros del consejo de redacción voluntarios y un apoyo administrativo mínimo. Estas revistas no son víctimas colaterales de un problema tecnológico. Son el extremo estructuralmente desatendido de un ecosistema editorial que nunca ha invertido lo suficiente en la capacidad editorial de los sectores más marginales. El auge ha hecho que esta situación sea imposible de ignorar.


Nada de esto ocurre en el vacío. La inestabilidad de la financiación acorta el plazo entre la investigación y la publicación. La inseguridad laboral aumenta el incentivo para inflar la producción. El cálculo de «publicar o perecer» es posiblemente más severo en las economías de investigación emergentes, donde los puestos son más escasos y los canales accesibles son menos, y donde las herramientas de IA están ahora tan disponibles como en cualquier otro lugar. Las mismas condiciones que aumentan los incentivos para enviar trabajos disminuyen la participación en la revisión. El sistema está siendo presionado desde ambos extremos simultáneamente, por las mismas presiones subyacentes.


Entonces, ¿qué debemos hacer al respecto?


Siempre me muestro un poco escéptico ante cualquiera que afirme tener un camino claro a seguir, o incluso una respuesta definitiva. Pero, sin duda, tengo algunas ideas al respecto.


El instinto en momentos como este es recurrir a soluciones tecnológicas: mejores herramientas de selección, software de detección basado en IA, comprobación automatizada de citas. Vale la pena explorarlas, y algunas ya se están utilizando. Pero abordan los síntomas en lugar de las causas, y creo que centrarse excesivamente en ellas conlleva el riesgo de pasar por alto lo que los datos nos están diciendo.


El aumento de envíos previsto para 2026 es una prueba de resistencia. Lo que pone a prueba no es solo si las revistas pueden procesar ese volumen. Pone a prueba si la infraestructura de rendición de cuentas de la revisión por pares sigue siendo adecuada para el entorno en el que trabajan realmente los investigadores: uno en el que la relación entre un investigador y su texto enviado ya no es estable, donde la capacidad posterior para detectar lo que se escapa está sometida a su propia presión, y donde los incentivos estructurales que empujan a los investigadores hacia el sistema no han cambiado, mientras que las herramientas a su disposición sí lo han hecho considerablemente.


Si tuviera que posicionarme, diría lo siguiente: las preguntas más importantes que hay que plantearse son de carácter estructural y social. ¿Cómo reconstruimos unas normas de responsabilidad que se adapten al entorno de preparación de manuscritos en el que trabajan los investigadores? ¿Cómo mantenemos la participación de los revisores en un sistema que exige cada vez más a un grupo de personas que ya está al límite de sus posibilidades? Y lo más incómodo de todo: ¿cómo mantenemos una conversación sincera sobre las revistas con menor capacidad para asumir las consecuencias de un problema que ellas no han creado?

Aunque esas preguntas no tienen respuestas claras, los datos hacen que ahora sea imposible posponerlas, y creo que eso es lo más importante que nos está diciendo este aumento.


Josh Dahl

Josh Dahl es vicepresidente sénior de Producto y director general de ScholarOne, Silverchair. Josh es un líder con amplia experiencia en el sector de la edición académica, con más de 20 años de trayectoria y un historial probado en el impulso de la innovación y el crecimiento estratégico en los sectores académico y de investigación. Más recientemente, Josh ocupó el cargo de director sénior de Gestión de Productos en Clarivate, donde fue responsable de un conjunto de soluciones para editoriales y sociedades. Se dedica a potenciar el impacto de la investigación académica mediante el desarrollo de plataformas y soluciones de última generación que satisfagan las necesidades de editoriales, editores e investigadores. 



…………………………………………………..

Guest Post — Is Growth Always Good News? 2026 Article Submission Surges

By Josh Dahl

  • May 13, 2026


Editor’s Note: Today’s post is by Josh Dahl, Senior Vice President and General Manager of ScholarOne at Silverchair.

In the first quarter of 2026, journals on the ScholarOne Manuscripts platform received 33% more submissions than in the same period in 2025. But the aggregate growth rate undersells what actually happened: the year-over-year increase itself more than doubled compared to the prior year, from 17% growth in 2025 to 33% in 2026. Platform growth is accelerating at a rate many publishers and journal editors would describe as unsustainable.  

The optimist in me would love to interpret this as a research boom. More research, a healthier scientific enterprise, all of which leads to progress and discovery for our world. The pessimist in me wants to throw my hands in the air and yell into the void about commercialized fraud and AI-generated slop. But, at the end of the day, I’m a pragmatist — so, instead, I looked at the numbers. 

The distribution under the aggregate results is more telling. The journals growing fastest are the smallest and least selective ones: journals receiving fewer than 15 submissions per quarter in 2025 saw an 81% increase in Q1 2026. Journals receiving more than 1,500 saw 20% growth. That asymmetry doesn’t prove anything on its own. It is consistent with legitimate growth, with researchers in expanding fields finding new venues, with global research capacity maturing in ways that naturally favor accessible journals. It is also the pattern you would expect if a significant portion of the surge reflected low-effort, AI-assisted submissions targeting journals least equipped to screen them out. The data can’t tell us which explanation is doing more work. But the pattern is sustained enough, and concentrated enough, to warrant a closer look at what the system is actually absorbing.  

Submission counts alone don’t tell us much about quality, but desk reject rates offer a reasonable proxy. Between 2022 and 2025, desk rejections grew 72%, nearly double the 43% growth in total submission decisions over the same period. In 2022, editors issued 1.69 desk rejects for every acceptance. By 2025, that ratio had climbed to 2.49. The editorial filter is working harder, catching more, and rejecting at a faster rate than submissions are growing.

What Does It All Mean?  

From my vantage point, the submission surge is not primarily a technology problem. It is evidence that peer review’s social contract with researchers was already under strain, and AI has made that strain visible at scale.

Peer review rests on a foundational assumption: the author produced what they submitted, stands behind it, and can defend the claims, locate the sources, and explain the methodology. The entire apparatus sits on top of that assumption of individual intellectual ownership. That assumption is now unstable, because the relationship between a researcher and the text they submit has become genuinely ambiguous, and the norms governing that relationship haven’t caught up to the technology running through it.  

The spectrum of AI involvement in manuscript preparation runs from light grammar editing to full draft generation, with no standardized consensus on where acceptable assistance ends and problematic use begins. Researchers are making judgment calls in that ambiguous space every day. Consider the hallucinated citation problem: large language models generate plausible-looking references that don’t exist, fluently enough that a researcher relying on AI-assisted drafting may not catch the error before submission. The author didn’t fabricate a citation in any meaningful, intentional sense. But they submitted a manuscript containing one. Current author attestation requirements have no clean mechanism for that scenario. The accountability infrastructure has a gap in the new behavior. 

I think the field is underestimating the psychological dimension at play here. There is meaningful research on how friction functions as an ethical checkpoint. Hiring a paper mill requires deliberate transgression: finding a vendor, paying, coordinating, knowing you crossed a line most people recognize as a line. Using AI to draft a manuscript occupies a genuinely different moral register. The rationalization is almost automatic: the research is mine, the ideas are mine, the tool just helped with the writing. I don’t think most researchers using AI this way consider themselves bad actors. I think they are making decisions in an environment where the pressure to produce is intense, and where the cost of entry has dropped to near zero. That combination is more corrosive to research integrity than bad intent, because it scales in ways that bad intent doesn’t. 

Every manuscript that enters the system makes a downstream demand on two resources already under strain: reviewer capacity and editorial labor. Reviewer fatigue and declining response rates predate this surge. A 33% volume increase further stresses that existing deficit. And the accountability gap runs downstream too: reviewers are using AI to manage their own workloads, for the same reasons authors are. A manuscript containing a hallucinated citation, reviewed by someone using AI assistance to manage a review they don’t have time to read carefully, may never surface the problem. The quality check the system relies on is happening under the same conditions of ambiguity that produced the issue upstream.   

The editorial labor problem is more acute, and I think it is the least discussed consequence of this surge. The journals absorbing the most disproportionate growth are exactly the journals with the least infrastructure: part-time editors, volunteer board members, and minimal administrative support. These journals are not incidental casualties of a technology problem. They are the structurally under-resourced end of a publishing ecosystem that has never adequately invested in editorial capacity at the margins. The surge has made this condition impossible to ignore.

None of this happens in a vacuum. Funding instability compresses the timeline between research and publication. Career insecurity increases the incentive to inflate output. The publish-or-perish calculus is arguably more severe in emerging research economies, where positions are scarcer and accessible venues are fewer, and where AI tools are now just as available as anywhere else. The same conditions that increase submission incentives decrease review participation. The system is being pushed from both ends simultaneously, by the same underlying pressures.

So, What Should We Do About It? 

I’m always a little skeptical of anyone who claims to have a clear path forward, or even a clean answer. But I certainly have some thoughts.

The instinct in moments like this is to reach for technological solutions: better screening tools, AI detection software, automated citation checking. These are worth pursuing, and some are already in use. But they address symptoms rather than conditions, and I think over-indexing on them risks missing what the data is telling us.

The 2026 submission surge is a stress test. What it is testing is not only whether journals can process the volume. It is testing whether the accountability infrastructure peer review depends on is still fit for the environment researchers are actually working in: one where the relationship between a researcher and their submitted text is no longer stable, where downstream capacity to catch what slips through is under its own pressure, and where the structural incentives pushing researchers toward the system haven’t changed while the tools available to them have changed considerably.  

If I had to stake a position, it would be this: the questions most worth asking are structural and social. How do we rebuild accountability norms that fit the manuscript preparation environment in which researchers are operating? How do we sustain reviewer participation in a system that is asking for more of a pool already stretched thin? And most uncomfortably: how do we have an honest conversation about journals with the least capacity absorbing the consequences of a challenge they didn’t create?

While those questions don’t have clean answers, the data now makes them impossible to defer, and I think that is the most important thing the surge is telling us.  

Josh Dahl

Josh Dahl is Senior Vice President of Product and General Manager of ScholarOne, Silverchair. Josh is a seasoned leader in the scholarly publishing industry with over 20 years of experience and a proven track record of driving innovation and strategic growth in the academic and research sectors. Most recently, Josh served as the Senior Director of Product Management at Clarivate, where he was responsible for a suite of solutions for publishers and societies. He is dedicated to enhancing the impact of scholarship by developing next-generation platforms and solutions that cater to the needs of publishers, editors, and researchers.  

……………………


No hay comentarios:

Publicar un comentario

Aumentaron 33% los envíos de manuscritos para publicación en revistas científicas (datos ScholarOne) ¿Eso es bueno?

Publicado en The Scholarly Kitchen https://scholarlykitchen.sspnet.org/2026/05/13/guest-post-is-growth-always-good-news-2026-article-submis...