jueves, 26 de febrero de 2026

La IA implosionará al actual circuito de comunicación científica. Economía política del paper: la Gran Implosión. Al Principio fue Publish or Perish

Publicado en blog Hipermediaciones
https://hipermediaciones.com/2026/02/22/economia-politica-del-paper-la-gran-implosion/?fbclid=IwdGRzaAQIzJRleHRuA2FlbQIxMQBzcnRjBmFwcF9pZAwzNTA2ODU1MzE3MjgAAR5uYejX4BYSfK46O3Fet8_E3n9RBB0QYz0YRuEfz4EMV6rrgl_KeRgm2lF8AQ_aem_Q7d-yIE_8pSJ8i1cS_BmYw&sfnsn=scwspwa




   febrero 22, 2026 
Economía política del paper: la Gran Implosión.
Al Principio fue Publish or Perish

Publish or perish (“publica o perece”) es la expresión que resume el principio organizador de buena parte de la carrera académica moderna: para conseguir y mantener empleo, promoción, financiación y reputación, el investigador debe publicar de forma continua en revistas indexadas, mejor si son del primer cuartil (el mítico Q1). No se trata solo de “comunicar resultados”, sino de cumplir un umbral de productividad medible: número de artículos, calidad percibida del lugar de publicación, citas, impacto, posiciones de autoría, etc. Todo suma. En esa lógica, “perecer” significa quedar fuera de la competencia: no obtener becas o proyectos, no estabilizarse, no ascender, no ser visible en el campo. La desaparición científica.


«Growth rates of modern science» (2021)

“Publish or perish” resume cómo el sistema científico se ha ido racionalizando alrededor de indicadores y procedimientos (evaluaciones periódicas, rankings, auditorías, acreditaciones) que convierten la publicación en moneda de cambio. Esto puede tener efectos positivos (incentivar la difusión, estandarizar criterios, aumentar circulación de conocimiento), pero genera tensiones más que conocidas: prioridad a lo rápido y “publicable”, aversión al riesgo (menos investigación exploratoria), presión por fragmentar resultados, saturación del peer review y estrés, mucho estrés, especialmente en las fases iniciales de la carrera científica.

Efecto ANECA

En España, este sistema fue adoptado por las agencias de evaluación hace dos décadas, en el marco de un rediseño del espacio universitario europeo (sí, estoy hablando del proceso de Bolonia). El “efecto ANECA” se hizo sentir en la comunidad científica, sobre todo en disciplinas menos acostumbradas a este tipo de dinámica (por ejemplo, en algunas ciencias sociales y las humanidades). Antes de la adopción de las mediciones cuantitativas, la promoción de investigadores y profesores se realizaba, en buena parte y dejando de lado las excepciones, en función de las amistades y la gastronomía localA nadie se le negaba un ascenso académico si había una larga amistad y un buen plato de paella de por medio. La adopción del hoy denostado sistema cuantitativo de evaluación introdujo una mínima cuota de objetividad en los procesos y le atragantó el almuerzo a más de un comité evaluador.

Ahora, las agencias europeas y españolas están promoviendo el llamado “currículum narrativo”. Dejamos el Excel y pasamos al Word. Veamos de qué se trata.

Había una vez…

Si currículum “de métricas” privilegiaba los números, un currículum narrativo es una forma de presentar la trayectoria académica y científica contándola como una historia argumentada: qué problemas han guiado el recorrido científico, cómo han evolucionado esas líneas de trabajo, cuáles han sido los aportes más relevantes del investigador, qué impacto han tenido (no solo en revistas indexadas: también a nivel social, docente o tecnológico) y por qué ciertas decisiones (cambios de tema, pausas, colaboraciones, interdisciplinariedad) fueron tomadas. Ahí donde el currículum tradicional infería el mérito por indicadores comparables, el narrativo sostiene que el mérito requiere interpretación, porque muchas contribuciones valiosas (transferencia, docencia, liderazgo, trabajo en equipo, impacto local) no se capturan bien con métricas o pueden quedar distorsionadas.

Este es el sistema que tenemos, con sus tensiones, ventajas, limitaciones y tensiones.

Bien, todo eso está a punto de irse al carajo.

CCCB – Big Data Bang (2014) Economía política del paper

El sistema de producción, circulación y evaluación científica está a punto de colapsar. Si lo analizamos con el modelo de la economía política, podemos afirmar que el coste de producir un artículo científico se reduce cada semana. El uso de las inteligencias artificiales para definir objetivos y preguntas de investigación, construir marcos teórico y metodológicos, procesar datos, extraer conclusiones y redactar un informe (acompañado de sus tablas, figuras y bibliografía) se extiende y lleva a un incremento exponencial de la producción en todas las disciplinas, desde la matemática y la física hasta las ciencias sociales. El fenómeno no es nuevo -ver «Growth rates of modern science» del 2021-, pero las IA lo estan hiperacelerando hasta límites impensables.


“Los modelos de IA de frontera -en concreto, Gemini Deep Think y sus variantes avanzadas- han superado un umbral crítico. Ya no son meras herramientas para la automatización rutinaria, el procesamiento de datos o el formateo sintáctico; ahora son capaces de actuar como auténticos colaboradores de nivel experto en el descubrimiento matemático y algorítmico. A través de la informática teórica, la economía, la física y la optimización, hemos mostrado que los LLM pueden resolver activamente conjeturas abiertas, ajustar cotas matemáticas mantenidas durante décadas y localizar teoremas oscuros y transdisciplinares para sortear bloqueos que frenan a los investigadores humanos” (AAVV, “Accelerating Scientific Research with Gemini: Case Studies and Common Techniques”, 2026).


Las ciencias sociales y las humanidades no quedan al margen de esta hiperproducción académica potenciada por las inteligencias artificiales. Un joven politólogo, Yascha Mounk, contaba en estos días su experiencia.


“Mucha gente que conozco, especialmente en las humanidades, sigue en una profunda negación respecto del estado de esta tecnología. Quizá la forma más común en que desestiman su importancia es afirmar que los modelos de inteligencia artificial no son inteligentes ni creativos. Claro, dicen: ‘esos loros estocásticos pueden hacer cosas impresionantes como resumir un correo electrónico o redactar lenguaje corporativo estándar; pero son congénitamente incapaces de realizar una contribución intelectual o artística genuina.’ A menudo, quienes sostienen este argumento no tienen muy claro qué entienden por inteligencia o creatividad, y van cambiando de postura cuando se les presiona para que definan los términos (…) No quiero quedar atrapado en un debate semántico estéril sobre cómo usar esas palabras (…)  Hace unos días, decidí comprobar si los modelos de inteligencia artificial más recientes serían capaces de escribir un artículo académico competente en mi campo de estudio, la teoría política. El resultado me alegró y me deprimió a la vez” (Y. Mounk, “The Humanities Are About to Be Automated”, 2026 – Se puede consultar el resultado de su experimento en la misma página).


La evaluación científica en la era de los LLM

La hiperproducción de artículos científicos está llevando al colapso de las publicaciones científicas. Ya no solo tardan cada vez más en dar una respuesta a los ansiosos autores: directamente rechazan textos por no tener tiempo de darles ni siquiera una rápida ojeada (nos pasó esta semana). Antes, por lo menos, te decían que el artículo “no encaja con los objetivos (o la metodología) del journal”. El correo que nos mandó el editor sudaba frustración. Además, no hay revisores suficientes para tantos papers.  El viernes recibí tres propuestas de revisión. Con suerte, aceptaré una. Lo mismo está pasando con los grandes congresos científicos: la cantidad de ponencias recibidas aumenta de manera constante. Sinceramente, no quisiera estar en la botas de un editor científico o del organizador de un congreso. El riesgo de morir aplastado por la masa textual es muy alto.


“Los modelos de lenguaje (LLM) han comenzado a transformar la producción científica. Estos cambios anticipan un panorama de investigación en evolución, en el que el valor de la fluidez en inglés disminuirá, pero en el que la importancia de marcos sólidos de evaluación de la calidad y de un escrutinio metodológico profundo es fundamental. Para los revisores por pares, los editores de revistas y la comunidad en general -quienes producen, consumen y aplican este trabajo-, esto representa un asunto de gran relevancia. Como atajo para filtrar (de manera imperfecta) la investigación científica, las características de la escritura están volviéndose rápidamente señales poco informativas, justo cuando se dispara la cantidad de comunicaciones científicas A medida que las heurísticas tradicionales se debilitan, editores y revisores podrían apoyarse cada vez más en marcadores de estatus  -como el pedigrí del autor y la afiliación institucional- como señales de calidad, lo que irónicamente contrarrestaría los efectos democratizadores de los LLM en la producción científica” (AAVV, “Scientific production in the era of large language models”, Science, 2025).


¿Qué hacer?

Si la comunidad científica utiliza las inteligencias artificiales para acelerar la investigación y generar más materia textual, a la hora de evaluar esa producción se perfilan dos soluciones. Veamos la primera: cambiar la sintaxis. Lo explico. Hasta ahora, la evaluación de los artículos científicos se realizaba antes de la publicación; en el nuevo esquema, siguiendo la lógica de lo que ya sucedió en la esfera informativa, primero se publica y después se evalúa. El ejemplo más claro es https://arxiv.org/, un servicio gratuito de distribución y archivo de acceso abierto que (hoy) incluye cerca de 2,4 millones de artículos en los campos de la física, las matemáticas, la informática, la biología, las finanzas, la estadística, la ingeniería, la economía y la ciencia de sistemas. La web aclara desde el vamos: “los materiales de este sitio no han sido sometidos a revisión por pares por parte de arXiv”. Publish and pray.


Allá por 2008 Clay Shirky había descrito esta inversión en su clásico libro Here Comes Everybody. Según Shirky, las redes digitales transformaron de raíz las lógicas del viejo periodismo al invertir los procesos tradicionales. En el siglo XXI, la consigna es “publish, then filter”.


«El orden de las cosas en el broadcasting es filtrar y luego publicar. El orden en las comunidades es publicar y luego filtrar. Si vas a una cena, no envías tus posibles comentarios a los anfitriones para que te digan cuáles son lo suficientemente buenos como para decirlos ante el grupo; pero así es como funciona el broadcasting todos los días. Los escritores envían sus historias con antelación para que sean editadas o rechazadas antes de que el público las vea. Los participantes de una comunidad, en cambio, dicen lo que tienen que decir, y después lo bueno se separa de lo mediocre. La gente de los medios suele criticar el contenido en internet por no estar editado, porque por todas partes hay baja calidad: mala escritura, imágenes feas, diseño pobre. Lo que no entienden es que internet está fuertemente editado, pero el juicio editorial se aplica en los bordes, no en el centro, y se aplica después de publicado, no de antemano» (C. Shirky, Here Comes Everybody, 2008).


Otra posible solución consiste en utilizar las inteligencias artificiales en los procesos de evaluación.  Si millones de científicos utilizan las inteligencias artificiales para incrementar su producción textual, la otra forma de lidiar con esa montaña de documentos es recurriendo a las mismas armas.


“Una posible respuesta consiste en aprovechar la misma tecnología para ayudar a evaluar manuscritos. ‘Agentes revisores’ especializados podrían señalar inconsistencias metodológicas, verificar afirmaciones e incluso evaluar la novedad. Que este enfoque escalable ayude a editores y revisores a centrarse en el fondo más que en señales superficiales, o que introduzca desafíos nuevos e imprevistos en el proceso científico, es una incertidumbre crítica” (AAVV, “Scientific production in the era of large language models”, Science, 2025).


Entre el colapso y la reimaginación radical

Ambas soluciones -cambio de sintaxis o incorporación de las inteligencias artificiales en los procesos de evaluación- tienen sus ventajas y desventajas. En el primer caso, entran en circulación textos sin ningún tipo de revisión. Eso está pasando con buena parte de la producción científica sobre la misma inteligencia artificial: se publican infinidad de artículos por día comparando modelos de LLM de los cuales siempre emerge uno como ganador. A las pocas horas, algunos de esos estudios se vuelven virales en las redes sociales, potenciados por las corporaciones que los financiaron. Los límites entre la investigación científica y las operaciones de marketing tienden a diluirseLo que se gana en tiempo se pierde en verificación.

La otra solución -incorporar las inteligencias artificiales a los procesos de evaluación- nos lleva al tema de los sesgos y alucinaciones de los LLM. Una inteligencia artificial podría dejar fuera de circulación un aporte científico relevante debido a las limitaciones de entrenamiento. Ahora bien, dado que la evaluación por pares también está plagada de sesgos y subjetividades, quizás este sistema sea el menos malo como alternativa. Una inteligencia artificial bien entrenada -y subrayo lo de «bien entrenada»- podría ayudar a filtrar una masa textual que no para de crecer. Los que no quieran ser sometidos a la AI-review, siempre pueden optar por la publicación en abierto sin revisión. En cualquiera de los dos casos, el sistema actual de producción, circulación y evaluación está a punto de colapsar.


“En cierto sentido, la era de la inteligencia artificial hará que las humanidades sean más importantes que nunca. Disciplinas que van de la literatura a la filosofía son necesarias para ayudarnos a responder preguntas sobre cómo podemos encontrar un lugar en el mundo cuando se nos necesita mucho menos que antes, y sobre qué significa ser humano cuando ya no somos los únicos capaces de hacer algunas de las cosas de las que, en otro tiempo, nuestra especie era la única capaz. Pero en un momento en que la inteligencia artificial puede saltar, con una facilidad cada vez mayor, a través de los aros que durante las últimas décadas han llegado a definir una carrera académica en las humanidades, resulta imprescindible una reimaginación radical de cómo buscamos y transmitimos conocimiento significativo en estos campos” (Y. Mounk, “The Humanities Are About to Be Automated”, 2026).


 Otras implosiones

Volvamos a los currículum. Si la evaluación cuantitativa generó la burbuja de papers que, inteligencia artificial de por medio, alcanzará dimensiones galácticas, el curriculum narrativo también es pasto de ChatGPT. No hay nada más divertido que pasarle a la criatura de OpenAI un viejo currículum cuantitativo y pedirle que lo convierta en el viaje del héroe de Vladimir Propp. Nace un nuevo género que enloquecería a los formalistas rusos: la ficción académica. No me extrañaría que en un par de años vuelvan a solicitarnos un curriculum con publicaciones Q1, índices de impacto y número citaciones. Retorno al Excel después de una temporada con el Word.

Para terminar, recordemos que el colapso de la producción científica es solo uno de los frentes que tenemos abiertos. Hoy solo escribí sobre papers e investigadores. Otro día hablaremos de los mecanismos de evaluación de los estudiantes y lo que está pasando dentro de las aulas. Como diría el recordado Robert Duval, esto huele a napalm.

La imagen de portada es una reelaboración hecha con IA de la instalación presentada en el exposición del CCCB «Big Bang Data» (2014).

martes, 24 de febrero de 2026

El gigante editorial Elsevier ha presentado una herramienta de inteligencia artificial que escanea millones de artículos protegidos por muro de pago. ¿Vale la pena?

Publicado en Science
https://www.science.org/content/article/journal-giant-elsevier-unveiled-ai-tool-scans-millions-paywalled-papers-it-worth-it




El gigante editorial Elsevier ha presentado una herramienta de inteligencia artificial que escanea millones de artículos protegidos por muro de pago. ¿Vale la pena?


Este producto, el primero de su clase, plantea interrogantes sobre los costes, el acceso y la equidad.


Las herramientas de inteligencia artificial (IA) para rastrear la literatura científica han proliferado en los últimos años, prometiendo a los investigadores una mejor manera de resumir los hallazgos y generar hipótesis. Ahora, Elsevier, la mayor editorial de artículos científicos, ha entrado en la contienda con su propia herramienta de IA y, en un pacto sin precedentes, se ha asociado con otros cuatro grupos editoriales para poner a disposición de su algoritmo el texto completo de millones de artículos de revistas con acceso restringido para su análisis.


LeapSpace, un producto de pago lanzado oficialmente por la empresa holandesa el mes pasado, utiliza un modelo de lenguaje grande (LLM) para escanear los artículos y responder a las preguntas de los usuarios. Durante una demostración reciente, por ejemplo, un usuario preguntó a LeapSpace si los medicamentos existentes podían reutilizarse para ralentizar la enfermedad de Parkinson y cómo podían probarse. El algoritmo proporcionó respuestas con citas de apoyo a la obra original. 


Pero el lanzamiento de LeapSpace y otras herramientas similares se suma a un debate de larga data sobre quién controla el acceso al conocimiento científico y cuánto cuesta obtenerlo. Algunos especialistas del sector editorial afirman que el enfoque de LeapSpace, en el que los usuarios deben pagar para analizar solo una parte de la literatura científica, es insatisfactorio. «La literatura es un ecosistema completo, y esta idea de que se puede dividir y vender [análisis de] la parte que nos pertenece no va a ser útil para nadie», afirma Jason Priem, director ejecutivo de la base de datos bibliográfica gratuita OpenAlex.


La mayoría de las herramientas de IA generativa para la búsqueda de literatura científica, como Consensus, desarrollada por una startup, y Asta, una herramienta de código abierto del Allen Institute for AI, una organización sin ánimo de lucro, suelen analizar y citar colecciones compuestas en su mayoría por artículos gratuitos y de acceso abierto, ya que sus desarrolladores tienen un acceso limitado a los artículos de pago. Los científicos también utilizan LLM de uso general, como ChatGPT, pero sus diseñadores no han revelado cuánto contenido de pago buscan esos modelos.  


LeapSpace ofrece lo que parece ser uno de los mayores corpus de artículos y libros completos con acceso restringido, con un total de 18 millones. La IA puede acceder a artículos de la propia colección de Elsevier y de sus cuatro socios: Emerald, el Instituto de Física, el New England Journal of Medicine Group y Sage Publications. (Paga a sus socios una regalía por uso, y la herramienta da más visibilidad a sus artículos). Elsevier ha prometido que los informes analíticos no favorecerán las citas de su propio contenido, y que las consultas de los usuarios se mantendrán privadas y no se utilizarán para entrenar los LLM propietarios, del grupo OpenAI, que dan soporte a LeapSpace.


Otras características de LeapSpace también pueden diferenciarlo. Genera una «tarjeta de confianza» que describe por qué la IA proporcionó cada cita. Esto parece útil porque «como académico, puedes juzgar si LeapSpace ha hecho un buen trabajo», afirma Lisa Janicke Hinchliffe, especialista en comunicaciones académicas de la Biblioteca Universitaria de la Universidad de Illinois Urbana-Champaign. La herramienta también puede destacar oportunidades de financiación y posibles colaboradores. 


Ella y otros especialistas en publicaciones se preguntan si el alcance limitado de LeapSpace justifica su coste. Los usuarios necesitarán una suscripción institucional (basada en parte en el tamaño de la institución y la cantidad de investigación) o una individual, que cuesta 32 dólares al mes. Muchas bibliotecas ya tienen dificultades para pagar las suscripciones existentes. Y si los usuarios quieren leer el contenido citado, necesitarán una suscripción independiente al editor de ese contenido, lo que equivale a pagar por varios servicios de streaming de vídeo.


Otras herramientas gratuitas que analizan materiales de acceso abierto pueden escanear una mayor proporción de la literatura. Elsevier y sus socios de LeapSpace representaron alrededor del 22 % de todos los artículos de investigación y revisión publicados en revistas en 2024, y casi la mitad están protegidos por un muro de pago, según los datos bibliométricos revisados por Science. Sin embargo, alrededor del 50 % de todos los artículos publicados ese año eran de acceso abierto, lo que los hacía potencialmente disponibles para el análisis de IA por parte de otras herramientas, aunque algunos tienen licencias que impiden dichos usos. (La colección de LeapSpace también incluye alrededor de 2 millones de artículos de acceso abierto de más de 50 editoriales, y Elsevier afirma que tiene previsto incluir más artículos de este tipo después de determinar si cumplen los términos de la licencia). 


La mayoría de los investigadores desean tener una visión más holística de su tema de investigación, afirma Priem, algo que es poco probable que consigan si solo examinan una parte de la bibliografía. Pero si la cobertura de LeapSpace crece, «la coordinación de los editores para ofrecer un producto a esa escala me empieza a poner bastante nervioso por el nivel de dominio del mercado que pueden ejercer», afirma Dave Hansen, director ejecutivo de Authors Alliance, una organización sin ánimo de lucro que defiende que los autores sirvan al bien público compartiendo ampliamente sus creaciones. «Elsevier ya es enorme».


Otra cuestión es que no existe un punto de referencia ampliamente aceptado ni una calificación independiente de la precisión de herramientas como LeapSpace, afirma Jevin West, científico de la información de la Universidad de Washington y miembro de la junta directiva de Consensus. Los investigadores deben formarse su propia opinión, afirma, pero es difícil evaluar objetivamente los resultados de los LLM. «Son buenos complaciendo a los usuarios de tal manera que nos hacen pensar que tenemos la respuesta correcta». 


Elsevier no es la única empresa que apuesta por este campo en auge. Wiley, otra gran editorial, se ha asociado con otras editoriales para desarrollar AI Gateway, una plataforma que permite a los usuarios emplear cualquiera de los diversos LLM para el análisis de contenidos.


Queda por ver si estas herramientas despegan. Las encuestas realizadas a investigadores han revelado que solo una minoría utiliza estas herramientas para analizar artículos, aunque muchos han adoptado la IA para otras tareas, como pulir manuscritos. Sin embargo, los resúmenes generados por IA pueden cobrar mayor importancia para los investigadores que luchan por mantenerse al día con el volumen cada vez mayor de artículos de revistas en su campo o que realizan investigaciones interdisciplinarias. En una declaración a Science, Elsevier afirmó que varias instituciones han adoptado LeapSpace, pero se negó a detallar cuántas. En declaraciones a los inversores la semana pasada, Erik Engstrom, director ejecutivo de RELX Group, matriz de Elsevier, afirmó que «los comentarios que estamos recibiendo [sobre LeapSpace] en términos de valor añadido y entusiasmo son muy positivos. ... [Los usuarios] informan de un ahorro de tiempo o un aumento de la productividad muy significativos».


Engstrom también afirmó que, a diferencia de otras editoriales que han concedido licencias de sus contenidos a desarrolladores de IA, Elsevier tiene previsto limitar dicho intercambio, ya que considera que el análisis automatizado de sus contenidos será una parte fundamental del futuro de la empresa. «Contamos con una ventaja en cuanto a contenidos que creemos que es muy sostenible y muy sólida».


////////////////////////////////////////////////


ScienceInsider Scientific Community


Journal giant Elsevier unveiled an AI tool that scans millions of paywalled papers. Is it worth it?


First-of-its-kind product raises questions about costs, access, and equity


20 Feb 2026

By Jeffrey Brainard



Artificial intelligence (AI) tools for scouring scientific literature have proliferated in recent years, promising researchers a better way to summarize findings and generate hypotheses. Now, Elsevier, the largest publisher of scientific articles, has entered the fray with its own AI tool—and, in a first-of-its-kind pact, has teamed up with four other publishing groups to make the full text of millions of paywalled journal articles available for its algorithm to analyze.

LeapSpace, a fee-based product officially launched by the Dutch company last month, uses a large language model (LLM) to scan the papers to answer users’ questions. During a recent demonstration, for example, a user asked LeapSpace whether existing drugs could be repurposed for slowing Parkinson’s disease, and how they could be tested. The algorithm provided responses with supporting citations to the original work.  

But the release of LeapSpace and similar tools adds to a long-standing debate about who controls access to scientific knowledge and how much it costs to gain access. Some publishing industry specialists say LeapSpace’s approach, in which users must pay to analyze just a subset of the scientific literature, is unsatisfying. “The literature is a whole ecosystem, and this idea of you can chop it up and sell [analyses of] the part that we own, it’s not going to be at all useful for anybody,” says Jason Priem, CEO of the free OpenAlex bibliographic database.

Most generative AI tools for scientific literature search—such as Consensus, developed by a startup, and Asta, an open-source tool from the nonprofit Allen Institute for AI—typically analyze and cite collections made up mostly of free, open-access articles because their developers have limited access to paywalled papers. Scientists also use general-use LLMs such as ChatGPT, but their designers have not disclosed how much paywalled content those models search.  

LeapSpace is offering what appears to be one of the largest corpuses of full-text, paywalled papers and books, totaling 18 million. The AI can access articles from Elsevier’s own collection and those of its four partners: Emerald, the Institute of Physics, the New England Journal of Medicine Group, and Sage Publications. (It pays its partners a royalty per use, and the tool gives their articles more exposure.) Elsevier has promised that the analytical reports will not favor citations to its own content, and that users’ queries will be kept private and not used to train the proprietary LLMs, from the OpenAI group, that support LeapSpace.

Some of LeapSpace’s other features may also set it apart. It produces a “Trust Card” that describes why the AI provided each citation. This seems helpful because “you can judge as the scholar whether LeapSpace did a good job,” says Lisa Janicke Hinchliffe, a specialist in scholarly communications at the University Library at the University of Illinois Urbana-Champaign. The tool can also highlight funding opportunities and potential collaborators.    

She and other publishing specialists question whether LeapSpace’s limited reach is worth the cost. Users will need either an institutional subscription (based in part on the institution’s size and amount of research) or an individual one, which costs $32 a month. Many libraries are already struggling to afford existing subscriptions. And if users want to read the cited content, they will need a separate subscription to that content’s publisher—akin to paying for multiple video-streaming services.

Other, free tools that analyze open-access materials may actually scan a higher proportion of the literature. Elsevier and its LeapSpace partners accounted for about 22% of all journal research and review articles published in 2024, and close to half are paywalled, according to bibliometric data reviewed by Science. But about 50% of all papers published that year were open access, making them potentially available for AI analysis by other tools, although some carry licenses preventing such uses. (LeapSpace’s collection also includes about 2 million open-access papers from more than 50 publishers, and Elsevier says it plans to include more such papers after it determines whether they meet licensing terms.) 

Most researchers want a more holistic view of their research topic, Priem says, which they’re unlikely to get by only scrutinizing a portion of the literature. But if LeapSpace’s coverage grows, “The coordination of publishers to offer a product at that scale starts to make me pretty nervous about the level of market dominance that they’re able to exercise,” says Dave Hansen, executive director of the Authors Alliance, a nonprofit that advocates for authors to serve the public good by sharing their creations widely. “Elsevier is already huge.”

Another issue is that there’s no widely accepted benchmark for, or independent rating of, the accuracy of tools such as LeapSpace, says Jevin West, an information scientist at the University of Washington and board member of Consensus. Researchers must make their own judgments, he says, but it’s challenging to objectively evaluate LLM outputs. “They are good at pleasing [users] in ways that make us think that we have the right answer.”  

Elsevier isn’t alone in staking its claim in this burgeoning field. Wiley, another large publisher, is teaming with publishers to develop AI Gateway, a platform that allows users to employ any of several LLM for content analysis.

It remains to be seen whether these tools take off. Surveys of researchers have shown that only a minority is using these tools for analyzing papers—though many have embraced AI for other tasks, such as polishing manuscripts. But AI summaries may become more important for researchers struggling to keep track of the accelerating volume of journal articles in their field or who are pursuing interdisciplinary research. In a statement to Science, Elsevier said several institutions have adopted LeapSpace but declined to detail how many. In remarks to investors last week, Erik Engstrom, CEO of RELX Group, Elsevier’s parent, said “the feedback we’re getting [on LeapSpace] in terms of the value add and the excitement is very strong. … [Users] report very significant time savings or productivity gains.”

Engstrom also said that, unlike other publishers that have licensed their content to AI developers, Elsevier plans to limit such sharing because it believes automated analysis of its content will be a core part of the company’s future. “We have a content advantage that we believe is very sustainable and very strong.”


doi: 10.1126/science.zohe4w1


Un cable entre China y Chile desata la ira de Estados Unidos

Publicado en  Deutsche Welle https://www.dw.com/es/un-cable-entre-china-y-chile-desata-la-ira-de-estados-unidos/a-76126516 Política Chile Un...