domingo, 7 de diciembre de 2025

La IA está acabando con las visitas humanas a sitios web ( The Economist )

 La IA está acabando con la web. ¿Hay algo que pueda salvarla? 


Fecha: 14 de julio de 2025 

The Economist


A principios del año pasado, Matthew Prince comenzó a recibir llamadas preocupadas de los directivos de grandes empresas de medios de comunicación. Le dijeron al Sr. Prince, cuya empresa, Cloudflare, proporciona infraestructura de seguridad a aproximadamente una quinta parte de la web, que se enfrentaban a una nueva y grave amenaza en línea. «Les pregunté: «¿Qué, son los norcoreanos?», recuerda. «Y me respondieron: «No, es la IA»». 


Esos ejecutivos habían detectado los primeros indicios de una tendencia que desde entonces se ha hecho evidente: la inteligencia artificial navega por la web. A medida que los usuarios plantean sus consultas a los chatbots, se está transformando la forma en que se les dan respuestas, en lugar de enlaces que seguir, en lugar de los motores de búsqueda convencionales. El resultado es que los editores de «contenido», desde proveedores de noticias y foros en línea hasta sitios de referencia como Wikipedia, están experimentando descensos alarmantes en su tráfico. 


A medida que la IA cambia la forma en que las personas navegan, está alterando el acuerdo económico que constituye la esencia de Internet. El tráfico humano se ha monetizado durante mucho tiempo mediante la publicidad en línea, pero ahora ese tráfico se está agotando. Los productores de contenidos están tratando urgentemente de encontrar nuevas formas de hacer que las empresas de IA les paguen por la información. Si no lo consiguen, la web abierta podría evolucionar hacia algo muy diferente. Desde el lanzamiento de ChatGPT a finales de 2022, la gente ha adoptado una nueva forma de buscar información en línea. OpenAI, el fabricante del chatbot, afirma que alrededor de 800 millones de personas lo utilizan. ChatGPT es la descarga más popular en la tienda de aplicaciones del iPhone. Apple afirmó que las búsquedas convencionales en su navegador web Safari habían caído por primera vez en abril, ya que los usuarios planteaban sus preguntas a la IA. 


Se espera que OpenAI lance pronto su propio navegador. A medida que OpenAI y otras empresas emergentes han crecido rápidamente, Google, que posee alrededor del 90 % del mercado de búsquedas convencionales en Estados Unidos, ha añadido funciones de IA a su propio motor de búsqueda en un intento por mantenerse al día. El año pasado comenzó a preceder algunos resultados de búsqueda con «resúmenes» generados por IA, que desde entonces se han vuelto omnipresentes. En mayo lanzó el «modo IA», una versión de su motor de búsqueda similar a un chatbot. La empresa promete ahora que, con la IA, los usuarios pueden «dejar que Google busque por ti». Sin embargo, como Google hace las búsquedas, los humanos ya no visitan los sitios web de los que se obtiene la información.


Similarweb, que mide el tráfico de más de 100 millones de dominios web, estima que el tráfico de búsqueda mundial (por parte de humanos) cayó alrededor de un 15 % en el año hasta junio. Aunque algunas categorías, como los sitios para aficionados, están funcionando bien, otras se han visto muy afectadas (véase el gráfico). Muchos de los más afectados son precisamente los que solían responder a las consultas de búsqueda. Los sitios de ciencia y educación han perdido un 10 % de sus visitantes. Los sitios de referencia han perdido un 15 %. Los sitios de salud han perdido un 31 %.


Para las empresas que venden publicidad o suscripciones, la pérdida de visitantes significa una pérdida de ingresos. «Durante mucho tiempo mantuvimos una relación muy positiva con Google... Ellos rompieron el acuerdo», afirma Neil Vogel, director de Dotdash Meredith, propietaria de títulos como People y Food & Wine. Hace tres años, sus sitios web obtenían más del 60 % de su tráfico de Google. Ahora, la cifra ronda el 35 %. «Nos están robando nuestro contenido para competir con nosotros», afirma Vogel. Google ha insistido en que su uso del contenido de terceros es justo. Sin embargo, desde que lanzó sus resúmenes de IA, la proporción de búsquedas relacionadas con noticias que no generan clics posteriores ha aumentado del 56 % al 69 %, según estimaciones de Similarweb.  


«La naturaleza de Internet ha cambiado por completo», afirma Prashanth Chandrasekar, director ejecutivo de Stack Overflow, conocido principalmente por ser un foro en línea para programadores. «La IA está básicamente ahogando el tráfico hacia la mayoría de los sitios web de contenido», afirma. Con menos visitantes, Stack Overflow está viendo cómo disminuye el número de preguntas publicadas en sus foros. Wikipedia, también impulsada por entusiastas, advierte de que los resúmenes generados por IA sin atribución «bloquean las vías de acceso de las personas al sitio y su contribución al mismo». 


Para mantener el tráfico y los ingresos, muchos grandes productores de contenidos han negociado acuerdos de licencia con empresas de IA, respaldados por amenazas legales: lo que Robert Thomson, director ejecutivo de News Corp, ha denominado «cortejar y demandar». Su empresa, propietaria del Wall Street Journal y del New York Post, entre otros títulos, ha llegado a un acuerdo con OpenAI. Dos de sus filiales están demandando a Perplexity, otro motor de respuestas de IA. El New York Times ha llegado a un acuerdo con Amazon mientras demanda a OpenAI. Hay muchas otras transacciones y demandas en curso. (The Economist Group aún no ha concedido la licencia para entrenar modelos, pero ha aceptado que Google utilice artículos seleccionados para uno de sus servicios de IA). Sin embargo, este enfoque tiene sus límites. Por un lado, hasta ahora los jueces parecen inclinarse por el lado de las empresas de IA: el mes pasado, dos casos distintos de derechos de autor en California fallaron a favor de los demandados, Meta y Anthropic, que argumentaron que entrenar sus modelos con contenidos ajenos equivalía a un uso legítimo.


Donald Trump parece aceptar el argumento de Silicon Valley de que se le debe permitir seguir desarrollando la tecnología del futuro antes que China. Despidió a la directora de la Oficina de Derechos de Autor de EE. UU. después de que esta argumentara que entrenar a la IA con material protegido por derechos de autor no siempre era legal. Las empresas de IA están más dispuestas a pagar por el acceso continuo a la información que por los datos de entrenamiento. Pero los acuerdos alcanzados hasta ahora no son precisamente espectaculares.  


Reddit, un foro en línea, ha cedido los derechos de su contenido a Google, según se informa, por 60 millones de dólares al año. Sin embargo, su valor de mercado se redujo a más de la mitad después de que en febrero informara de un crecimiento de usuarios más lento de lo esperado debido a las fluctuaciones en el tráfico de búsquedas. (Desde entonces, el crecimiento se ha recuperado y el precio de sus acciones ha recuperado parte del terreno perdido). 


Atrapados en la red


Sin embargo, el mayor problema es que la mayoría de los cientos de millones de dominios de Internet son demasiado pequeños para atraer o demandar a los gigantes tecnológicos. Su contenido puede ser esencial para las empresas de IA en su conjunto, pero cada sitio web es prescindible por separado. Incluso si pudieran unir fuerzas para negociar colectivamente, la ley antimonopolio lo prohibiría. Podrían bloquear los rastreadores de IA, y algunos lo hacen. Pero eso significa que no tendrían ninguna visibilidad en las búsquedas. Los proveedores de software podrían ayudar.  


Ahora se preguntará a todos los nuevos clientes de Cloudflare si desean permitir que los bots de las empresas de IA rastreen su sitio web y con qué finalidad. La escala de Cloudflare le da más posibilidades que a la mayoría de habilitar algo parecido a una respuesta colectiva por parte de los sitios web de contenido que desean obligar a las empresas de IA a pagar. Está probando un sistema de pago por rastreo que permitiría a los sitios web cobrar una tarifa de entrada a los bots. «Tenemos que establecer las reglas del juego», afirma Prince, quien dice que su resultado preferido es «un mundo en el que los humanos obtengan contenido gratis y los bots paguen una fortuna por él».


Tollbit ofrece una alternativa que se presenta como un muro de pago para los bots. Permite a los sitios web de contenido cobrar tarifas variables a los rastreadores de IA: por ejemplo, una revista podría cobrar más por las noticias nuevas que por las antiguas. En el primer trimestre de este año, Tollbit procesó 15 millones de microtransacciones de este tipo para 2000 productores de contenido, entre los que se incluyen Associated Press y Newsweek. Toshit Panigrahi, su director ejecutivo, señala que, mientras que los motores de búsqueda tradicionales incentivan los contenidos repetitivos —por ejemplo, «¿A qué hora empieza la Super Bowl?»—, cobrar por el acceso incentiva la singularidad. Una de las tarifas más altas por rastreo de Tollbit la cobra un periódico local.  


ProRata, una startup dirigida por Bill Gross, pionero en la década de 1990 de los anuncios online de pago por clic que han impulsado gran parte de la web desde entonces, propone otro modelo. Gross propone que el dinero procedente de los anuncios colocados junto a las respuestas generadas por IA se redistribuya entre los sitios web en proporción a la contribución de su contenido a la respuesta. ProRata tiene su propio motor de respuestas, Gist.ai, que comparte los ingresos publicitarios con sus más de 500 socios, entre los que se encuentran el Financial Times y The Atlantic


Actualmente es más un ejemplo que una amenaza seria para Google: Gross afirma que su principal objetivo es «mostrar un modelo de negocio justo que otras personas acaben copiando». Los productores de contenidos también están replanteándose sus modelos de negocio. «El futuro de Internet no se basa únicamente en el tráfico», afirma Chandrasekar, creador del producto de suscripción orientado a empresas de Stack Overflow, Stack Internal. Los editores de noticias están planificando el «Google cero», utilizando boletines informativos y aplicaciones para llegar a los clientes que ya no acuden a ellos a través de búsquedas, y trasladando su contenido a muros de pago o a eventos en directo. Dotdash Meredith afirma que ha aumentado su tráfico general a pesar de la caída de las referencias de Google.


El audio y el vídeo también están resultando más difíciles de resumir para los motores de IA, tanto desde el punto de vista legal como técnico, que el texto. Según Similarweb, el sitio al que los motores de respuesta remiten con mayor frecuencia el tráfico de búsqueda es, con diferencia, YouTube. No todo el mundo cree que la web esté en declive; al contrario, se encuentra en «un momento de increíble expansión», argumenta Robby Stein, de Google. A medida que la IA facilita la creación de contenidos, el número de sitios web crece: los bots de Google informan de que la web se ha expandido un 45 % en los últimos dos años.


La búsqueda con IA permite a los usuarios formular preguntas de nuevas formas, por ejemplo, tomando una foto de su estantería y pidiendo recomendaciones sobre qué leer a continuación, lo que podría aumentar el tráfico. Con las consultas de IA, se están «leyendo» más sitios que nunca, aunque no sea con ojos humanos. Un motor de respuestas puede escanear cientos de páginas para ofrecer una respuesta, recurriendo a una gama de fuentes más diversa que la que utilizarían los lectores humanos. En cuanto a la idea de que Google está difundiendo menos tráfico humano que antes, Stein afirma que la empresa no ha observado una disminución drástica en el número de clics salientes, aunque se niega a hacer público el número. Hay otras razones, además de la IA, por las que las personas pueden estar visitando menos los sitios web. Quizás estén navegando por las redes sociales. Quizás estén escuchando podcasts. La muerte de la web ya se ha pronosticado antes, a manos de las redes sociales y luego de las aplicaciones, y no se ha producido. Pero la IA puede suponer la mayor amenaza hasta la fecha. 


Si la web quiere seguir existiendo en algo parecido a su forma actual, los sitios tendrán que encontrar nuevas formas de obtener ingresos. «No hay duda de que la gente prefiere la búsqueda con IA», afirma Gross. «Y para que internet sobreviva, para que la democracia sobreviva, para que los creadores de contenido sobrevivan, la búsqueda con IA tiene que compartir los ingresos con los creadores». 


///////////////////////



AI is killing the web. Can anything save it?
Fecha: July 14, 2025 

The Economist



Around the beginning of last year, Matthew Prince started receiving worried calls from the bosses of big media companies. They told Mr Prince, whose firm, Cloudflare, provides security infrastructure to about a fifth of the web, that they faced a grave new online threat. "I said, 'What, is it the North Koreans?'," he recalls. "And they said, 'No. It's AI'." Those executives had spotted the early signs of a trend that has since become clear: artificial intelligence people navigate the web. As users pose their queries to chatbots is transforming the way that rather than conventional search engines, they are given answers, rather than links to follow. The result is that "content" publishers, from news providers and online forums to reference sites such as Wikipedia, are seeing alarming drops in their traffic. 


As AI changes how people browse, it is altering the economic bargain at the heart of the internet. Human traffic has long been monetised using online advertising; now that traffic is drying up. Content producers are urgently trying to find new ways to make AI companies pay them for information. If they cannot, the open web may evolve into something very different. Since the launch of ChatGPT in late 2022, people have embraced a new way to seek information online. OpenAI, the chatbot's maker, says that around 800m people use it. 


ChatGPT is the most popular download on the iPhone app store. Apple said that conventional searches in its Safari web browser had fallen for the first time in April, as people put their questions to AI instead. OpenAI is soon expected to launch a browser of its own. As OpenAI and other upstarts have soared, Google, which has about 90% of the conventional search market in America, has added AI features to its own search engine in a bid to keep up. Last year it began preceding some search results with AI-generated "overviews", which have since become ubiquitous. In May it launched "AI mode", a chatbot-like version of its search engine. The company now promises that, with AI, users can "let Google do the Googling for you". Yet as Google does the Googling, humans no longer visit the websites from which the information is gleaned. Similarweb, which measures traffic to more than 100m web domains, estimates that worldwide search traffic (by humans) fell by about 15% in the year to June. Although some categories, such as hobbyists' sites, are doing fine, others have been hit hard (see chart). Many of the most affected are precisely the kind that might have commonly answered search queries. Science and education sites have lost 10% of their visitors. Reference sites have lost 15%. Health sites have lost 31%.  


For companies that sell advertising or subscriptions, lost visitors means lost revenue. "We had a very positive relationship with Google for a long time…They broke the deal," says Neil Vogel, head of Dotdash Meredith, which owns titles such as People and Food & Wine. Three years ago its sites got more than 60% of their traffic from Google. Now the figure is in the mid-30s. "They are stealing our content to compete with us," says Mr Vogel. Google has insisted that its use of others' content is fair. But since it launched its AI overviews, the share of news-related searches resulting in no onward clicks has risen from 56% to 69%, estimates Similarweb.   


"The nature of the internet has completely changed," says Prashanth Chandrasekar, chief executive of Stack Overflow, best known as an online forum for coders. "AI is basically choking off traffic to most content sites," he says. With fewer visitors, Stack Overflow is seeing fewer questions posted on its message boards. Wikipedia, also powered by enthusiasts, warns that AI-generated summaries without attribution "block pathways for people to access…and contribute to" the site.  


To keep the traffic and the money coming, many big content producers have negotiated licensing deals with AI companies, backed up by legal threats: what Robert Thomson, chief executive of News Corp, has dubbed "wooing and suing". His company, which owns the Wall Street Journal and the New York Post, among other titles, has struck a deal with OpenAI. Two of its subsidiaries are suing Perplexity, another AI answer engine. The New York Times has done a deal with Amazon while suing OpenAI. Plenty of other transactions and lawsuits are going on. (The Economist Group has yet to license our work to train models, but has agreed to let Google use select articles for one of its AI services.) Yet this approach has limits. For one thing, judges so far seem minded to side with AI companies: last month two separate copyright cases in California went in favour of their defendants, Meta and Anthropic, both of which argued that training their models on others' content amounted to fair use.  


Donald Trump seems to buy Silicon Valley's argument that it must be allowed to get on with developing the technology of the future before China can. He sacked the head of the US Copyright Office after she argued that training AI on copyrighted material was not always legal. AI companies are more willing to pay for ongoing access to information than training data. But the deals done so far are hardly stellar.  


Reddit, an online forum, has licensed its content to Google, reportedly for $60m a year. Yet its market value fell by more than half after it reported slower user growth than expected in February owing to wobbles in search traffic. (Growth has since picked up and its share price has recovered some lost ground.) Caught in a web The bigger problem, however, is that most of the internet's hundreds of millions of domains are too small to either woo or sue the tech giants. Their content may be collectively essential to AI firms, but each site is individually dispensable. Even if they could join forces to bargain collectively, antitrust law would forbid it. They could block AI crawlers, and some do. But that means no search visibility at all. Software providers may be able to help.   


All of Cloudflare's new customers will now be asked if they want to allow AI companies' bots to scrape their site, and for what purpose. Cloudflare's scale gives it a better chance than most of enabling something like a collective response by content sites that want to force AI firms to cough up. It is testing a pay-as-you-crawl system that would let sites charge bots an entry fee. "We have to set the rules of the road," says Mr Prince, who says his preferred outcome is "a world where humans get content for free, and bots pay a tonne for it".   


An alternative is offered by Tollbit, which bills itself as a paywall for bots. It allows content sites to charge AI crawlers varying rates: for instance, a magazine could charge more for new stories than old ones. In the first quarter of this year Tollbit processed 15m micro-transactions of this sort, for 2,000 content producers including the Associated Press and Newsweek. Toshit Panigrahi, its chief executive, points out that whereas traditional search engines incentivise samey content—"What time does the Super Bowl start?", for example—charging for access incentivises uniqueness. One of Tollbit's highest per-crawl rates is charged by a local newspaper.  


Another model is being put forward by ProRata, a startup led by Bill Gross, a pioneer in the 1990s of the pay-as-you-click online ads that have powered much of the web ever since. He proposes that money from ads placed alongside AI-generated answers should be redistributed to sites in proportion to how much their content contributed to the answer. ProRata has its own answer engine, Gist.ai, which shares ad revenue with its 500-plus partners, which include the Financial Times and the Atlantic. 


It is currently more of an exemplar than a serious threat to Google: Mr Gross says his main aim is to "show a fair business model that other people eventually copy". Content producers are also rethinking their business models. "The future of the internet is not all about traffic," says Mr Chandrasekar, who has built up Stack Overflow's enterprise-oriented subscription product, Stack Internal. News publishers are planning for "Google zero", using newsletters and apps to reach customers who no longer come to them via search, and moving their content behind paywalls or to live events. Dotdash Meredith says it has grown its overall traffic despite the drop in referrals from Google.   


Audio and video are also proving legally and technically harder for AI engines to summarise than text. The site to which answer engines refer search traffic most often, by far, is YouTube , according to Similarweb. Not everyone thinks the web is in decline—on the contrary, it is in "an incredibly expansionary moment", argues Robby Stein of Google. As AI makes it easier to create content, the number of sites is growing: Google's bots report that the web has expanded by 45% in the past two years.  


AI search lets people ask questions in new ways—for instance, taking a photo of their bookshelf and asking for recommendations on what to read next—which could increase traffic. With AI queries, more sites than ever are being "read", even if not with human eyes. An answer engine may scan hundreds of pages to deliver an answer, drawing on a more diverse range of sources than human readers would. As for the idea that Google is disseminating less human traffic than before, Mr Stein says the company has not noticed a dramatic decline in the number of outbound clicks, though it declines to make the number public. There are other reasons besides AI why people may be visiting sites less. Maybe they are scrolling social media. Maybe they are listening to podcasts. The death of the web has been predicted before—at the hands of social networks, then apps—and not come to pass. But AI may pose the biggest threat to it yet. 


If the web is to continue in something close to its current form, sites will have to find new ways to get paid. "There's no question that people prefer AI search," says Mr Gross. "And to make the internet survive, to make democracy survive, to make content creators survive, AI search has to share revenue with creators." To stay on top of the biggest stories in business and technology, sign up to the Bottom Line , our weekly subscriber-only newsletter.  


Cita de fuente (MLA9) "AI is killing the web. Can anything save it?" The Economist, 14 July 2025. Gale In Context: Opposing Viewpoints, link.gale.com/apps/doc/A847745536/OVIC?u=unam&sid=bookmark-OVIC&xid=147492e0. Accessed 23 Sept. 2025. Número de documento de Gale: GALE|A84774553

jueves, 4 de diciembre de 2025

FRANCIA: CNRS cancela Web of Science y desiste de sus indicadores de impacto. Apuesta por OpenAlex

Publicado en National Centre for Scientific Research (CNRS)
https://www.cnrs.fr/en/update/cnrs-breaking-free-web-science 



El CNRS se libera de Web of Science


1 de diciembre de 2025


A partir del 1 de enero de 2026, el CNRS cortará el acceso a una de las mayores bases de datos bibliométricas comerciales, Web of Science de Clarivate Analytics, junto con Core Collection y Journal Citation Reports.


Desde la publicación de la primera Hoja de ruta para la ciencia abierta del CNRS en 2019, la organización ha estado aplicando activamente una política de apertura de los resultados de la investigación y de cambio en la forma de evaluar a los científicos. Al igual que muchas otras organizaciones de investigación, el CNRS se opone a la evaluación cuantitativa basada en indicadores bibliométricos y favorece un enfoque cualitativo. Este es, pues, el contexto que sustenta la decisión del CNRS de suprimir el acceso a Web of Science (WoS) de Clarivate Analytics, que la organización considera un paso esencial para su política de ciencia abierta. El objetivo de esta decisión es ser coherente con los principios declarados por la organización en materia de evaluación de la investigación, que exigen, en primer lugar, un cambio en el uso de indicadores bibliométricos cuantitativos y, en segundo lugar, el desarrollo acelerado de soluciones alternativas centradas en datos abiertos y transparentes.   


A favor de la evaluación cualitativa


El uso de factores de impacto en la evaluación de los investigadores ha contribuido a la distorsión de las prácticas de publicación científica y, a su vez, de las prácticas de investigación. Alain Schuhl, director general adjunto de Ciencia (DGDS) del CNRS, explica que «desde hace demasiado tiempo, la investigación está atrapada en indicadores que, en realidad, no tienen nada que ver con la calidad intrínseca de los avances científicos expuestos en una publicación». La DGDS considera que dictar las reglas del juego para la evaluación de los investigadores definiendo el prestigio y el atractivo de las revistas es «una visión reduccionista de la ciencia que ya no debemos tolerar. Esto significa que debemos actuar ahora para garantizar la calidad y la ética del sistema de evaluación de la investigación».


Promover el desarrollo de bases de datos abiertas 


El CNRS inició este proceso en 2024 al darse de baja de la base de datos Scopus de Elsevier y hoy continúa con su política al restringir el acceso a la base de datos bibliométrica de Clarivate Analytics. Alain Schuhl nos recuerda que «otras instituciones prestigiosas han marcado el camino» con este enfoque. Esta decisión del CNRS ayudará a la organización a ahorrar 1,4 millones de euros anuales en cuotas de suscripción, fondos que se redirigirán hacia iniciativas que promuevan la ciencia abierta, en particular el desarrollo de bases de datos abiertas.


Así, se anima a los investigadores del CNRS a recurrir a bases de datos abiertas como OpenAlex. Esto ofrece un mayor nivel de visibilidad para las revistas que no están en inglés y un mayor número de revistas que el WoS, que se consideraba insuficientemente representativo para varias disciplinas. Las humanidades y las ciencias sociales estaban poco cubiertas, por ejemplo, al igual que la informática y las matemáticas.   


Revertir la ventaja histórica de Web of Science 


Hasta ahora, una de las principales razones de la posición tan destacada de WoS era la contribución colectiva de los miembros del personal del sector público, que llevan años mejorando la calidad de los datos de afiliación de WoS. Alain Schuhl explica que «hemos trabajado gratis para encerrarnos colectivamente en un sistema de pago cuando todos somos conscientes de sus sesgos y su carácter incompleto. Las instituciones han estado atrapadas en el sistema WoS durante todo este tiempo porque el hecho de que la mayoría de las instituciones de educación superior e investigación del mundo figuren en él permite realizar comparaciones entre ellas». Abandonar el WoS significa perder temporalmente la capacidad de compararnos con otros y posicionarnos en relación con nuestros homólogos a través de esas comparaciones basadas en un ámbito común de evaluación. Alain Schuhl añade que «esta decisión significa que el CNRS acepta que las comparaciones interinstitucionales o interpersonales deberán realizarse ahora sobre la base de otros principios que aún deben reinventarse».    


Alain Schuhl es muy consciente de que aún queda mucho trabajo por hacer en cuanto a la curación de metadatos antes de que OpenAlex pueda utilizarse en todo su potencial. Sin embargo, la DGDS cree que «ya es hora de dedicar nuestra energía a mejorar la calidad de las bases de datos bibliométricas abiertas» y destaca que «el CNRS está trabajando activamente para mejorar OpenAlex. Estamos seguros de que esta base de datos pronto será capaz de satisfacer plenamente a todos los científicos en su trabajo de investigación bibliográfica».


La emancipación nunca se puede lograr en solitario


En una era en la que la cooperación científica internacional es cada vez más frágil, el objetivo es, más que nunca, recuperar la soberanía sobre nuestras elecciones y decisiones científicas, de modo que estas se guíen por una mayor transparencia lograda mediante el uso de herramientas abiertas con métodos más transparentes. «Trabajar colectivamente en el desarrollo de bases de datos abiertas se ha convertido en una prioridad e invitamos a todos nuestros socios a que también pongan punto final a Web of Science», concluye Alain Schuhl.


/////////////////////////////////////////////////


The CNRS is breaking free from the Web of Science

December 01, 2025

From January 1st 2026, the CNRS will cut access to one of the largest commercial bibliometric databases, Clarivate Analytics' Web of Science, along with the Core Collection and Journal Citation Reports.

Since the publication of the CNRS's first Roadmap For Open Science in 2019, the organisation has been actively implementing a policy of opening up research results and changing the way scientists are evaluated. Along with many other research organisations, the CNRS opposes quantitative evaluation based on bibliometric indicators, instead of favouring a qualitative approach. This, then, is the context underpinning the CNRS's decision to cut access to Clarivate Analytics' Web of Science (WoS) which the organisation considers an essential step for its open science policy. The aim of this decision is to be coherent as regards the organisation's stated principles for research evaluation which firstly call for a shift from the use of quantitative bibliometric indicators and secondly for the accelerated development of alternative solutions focusing on open and transparent data.  

In favour of qualitative evaluation

The use of impact factors in the evaluation of researchers has contributed to the distortion of scientific publishing practices and, in turn, of research practices. Alain Schuhl, the CNRS's Deputy CEO for Science (DGDS), explains that "for too long now, research has been trapped by indicators that actually have nothing to do with the intrinsic quality of the scientific advances set out in a publication". The DGDS considers that dictating the rules of the game for the assessment of researchers by defining the prestige and attractiveness of journals is "a reductive view of science that we should no longer be condoning. This means we have to take action now to guarantee the quality and the ethics of the research assessment system".

Promoting the development of open databases 

The CNRS began this process in 2024 by unsubscribing from Elsevier's Scopus database and is pursuing its policy today by cutting access to Clarivate Analytics' bibliometric database. Alain Schuhl reminds us that "other prestigious institutions have led the way" with this approach. This decision by the CNRS will help the organisation save €1.4 million annually in subscription fees, funds that will be redirected towards initiatives promoting open science, particularly the development of open databases.

Thus, CNRS researchers are now encouraged to turn to open databases like OpenAlex. This offers a greater level of visibility for non-English-language journals and a larger number of journals than the WoS which was considered to be insufficiently representative for several disciplines. The humanities and social sciences were poorly covered, for example, as were computer science and mathematics.    

Reversing the Web of Science's historically constructed advantage

Up until now, a major reason for the highly prominent position of the WoS was the collective contribution of public sector staff members who have been enhancing the quality of WoS affiliation data for years. Alain Schuhl explains that "we have worked for free to lock ourselves collectively into a paid system when we are all aware of its biases and incompleteness. Institutions have been trapped in the WoS system for all this time because having the majority of the world's higher education and research institutions listed there means comparisons can be made between them". Leaving the WoS means temporarily losing the ability to compare ourselves with others and position ourselves in relation to our counterparts through such comparisons founded on a common scope for evaluation. Alain Schuhl adds that "this decision means the CNRS therefore accepts that inter-institutional or inter-personal comparisons will now need to be made on the basis of other principles that still need to be reinvented".    


Alain Schuhl is well aware that a lot of work remains to be done in terms of metadata curation before OpenAlex can be used to its full potential. However the DGDS believes "it is now high time to consecrate our energy to improving the quality of open bibliometric databases" and stresses that "the CNRS is actively working to improve OpenAlex. We're confident this database will soon be capable of giving full satisfaction to all scientists in their bibliographic research work."

Emancipation can never be achieved alone

In an era of increasingly fragile international scientific cooperation, the objective is more than ever to regain sovereignty over our scientific choices and decision-making so these are guided by enhanced transparency achieved through using open tools with more transparent methods. "Working collectively on the development of open databases has become a priority and we invite all our partners to also draw a line under the Web of Science", concludes Alain Schuhl.


REINO UNIDO: La confianza en las universidades «en mínimos históricos» debido a la escasez de puestos de trabajo para titulados

Publicado en THE Times Higher Education https://www.timeshighereducation.com/news/faith-universities-new-low-graduate-jobs-dry   La confian...