Mostrando entradas con la etiqueta Ciencia abierta. Mostrar todas las entradas
Mostrando entradas con la etiqueta Ciencia abierta. Mostrar todas las entradas

viernes, 24 de octubre de 2025

Ciencia abierta con ética para la IA - Principios FAIRER para Datos abiertos

Publicado en NWO
https://www.nwo.nl/en/cases/open-science-helps-to-assess-the-value-of-ai-tools-and-data 



La ciencia abierta ayuda a evaluar el valor de las herramientas y los datos de IA


10 de julio de 2025


Hoy en día, no sólo los científicos especializados en IA, sino casi todos los estudiantes e investigadores utilizan herramientas de IA en sus investigaciones. ¿Hasta qué punto se ajusta este uso a los principios de la ciencia abierta? ¿Puede la ciencia abierta ayudar a mejorar el uso que hacemos de las herramientas de IA?


Autor: Malou van Hintum


Los científicos especializados en IA fueron de los primeros en adoptar el código abierto y la publicación abierta, junto con otros informáticos", afirma Antal van den Bosch, catedrático de Lenguaje, Comunicación y Computación de la Universidad de Utrecht. Tomemos como ejemplo la publicación abierta: se está dando un impulso masivo para que las revistas sean de acceso abierto. En nuestro campo, esto es así desde el cambio de milenio".


Añade que la mayoría de las empresas de IA «publican como locas»: No suelen publicar sus productos estrella como código abierto, pero sí las versiones antiguas, los modelos reducidos o los componentes. Cuando el chatbot chino Deepseek lanzó sus modelos más pequeños y ligeros, éstos eran en gran parte de código abierto. El modelo más grande, que pueden rentabilizar, es de «código abierto», lo que significa que puede descargarse y utilizarse en su forma original. Lo mismo ocurre con todos los modelos LLaMA (modelos lingüísticos) de Meta”, prosigue Van den Bosch: El software que crean los propios investigadores de IA sigue principios científicos abiertos que van más allá de FAIR (Findable, Accessible, Interoperable y Reusable). Si te interesa la ciencia abierta, ven y echa un vistazo a nuestro trabajo".


Realidad: nadie conoce realmente los datos


Eso es sólo una parte de la historia. Van den Bosch también reconoce que todo el mundo fuera de su «microburbuja», como él la llama, utiliza herramientas de IA desarrolladas por grandes empresas tecnológicas. Si nos fijamos en los chatbots y los modelos de aprendizaje automático de las grandes tecnológicas utilizados por investigadores que no son especialistas en IA, las cosas parecen mucho menos JUSTAS. Y esto se debe principalmente a los datos utilizados para entrenar estas herramientas de IA.


Por ejemplo, no está nada claro con qué datos se han entrenado chatbots tan populares como ChatGPT. Esto tiene poco que ver con los principios FAIR de la ciencia abierta (los datos deben ser localizables, accesibles, interoperables y reutilizables). Sin embargo, los investigadores que quieran utilizar la IA en su trabajo deben conocer las características de los datos que introducen en estas herramientas. Pero no pueden saberlo a menos que utilicen datos recogidos por ellos mismos.


Error (1): Todo el mundo lo hace


Curtis Sharma (TU Delft) dirige el proyecto Skills for the European Open Science Commons (Skills4EOSC), una red paneuropea de centros de competencia que forman a investigadores y administradores de datos en ciencia abierta y FAIR.


Sharma sólo utiliza las herramientas de IA incluidas en el software de PDF al que está suscrito. Dejo que esas herramientas procesen los PDF que yo mismo he seleccionado, en un entorno controlado. Quizá espero demasiado, pero no creo que existan herramientas realmente fiables. Incluso las versiones de pago pueden ser menos fiables que Wikipedia. Después de un tiempo, a menudo acaban dando vueltas en círculo. Las uso muy poco".


Aun así, estas herramientas se utilizan mucho, y Sharma entiende por qué: El gran problema es la presión para utilizarlas, simplemente porque todo el mundo lo hace. Ahorran tiempo y a menudo se sienten validados por los resultados". Y eso es un gran escollo, porque que un resultado coincida con tus expectativas no significa que sea correcto o cierto. En un mundo ideal, todos los modelos se entrenarían con datos FAIR. Pero ese mundo no existe y probablemente nunca existirá.


El gran problema es la presión para utilizarlos.


Curtis Sharma


Necesidad: metadatos exhaustivos


Muchos investigadores que utilizan la IA trabajan con datos recogidos por otros, lo que significa que sólo pueden ser transparentes en cuanto a la calidad y la imparcialidad de los conjuntos de datos en cuestión. Sharma: "Eso significa que los metadatos -datos sobre los datos- deben ser lo más detallados posible, incluyendo cualquier vulnerabilidad o sesgo ético. Como no podemos empezar a investigar con datos FAIR, debemos ser lo más transparentes posible sobre lo que estamos haciendo". Por ejemplo, no se puede afirmar que no hay sesgos a menos que se pueda demostrar. En otras palabras: no encontrar sesgos no significa que no existan".


En curso: Las 10 mejores prácticas de datos FAIR para la IA


Skills4EOSC está elaborando actualmente una lista de las 10 mejores prácticas de datos FAIR para la IA (a Top 10 list of FAIR data practices for AI). Cabría esperar que el entrenamiento de modelos con datos FAIR figurara en la lista, pero no hubo suficiente acuerdo al respecto, explica Sharma. No porque los investigadores piensen que no es importante -de hecho lo es-, sino porque algunos valoran más la calidad de los datos, que se refiere a su adecuación a un fin específico. Para ellos, esto es más importante que su carácter FAIR, ya que se considera demasiado restrictivo. Otros consideran poco práctica la formación de modelos a partir de datos FAIR, ya que FAIR no significa necesariamente abierto, cuando el objetivo es la accesibilidad al público más amplio posible.


Bono: principios FAIRER para la IA


Sharma quiere ampliar los principios FAIR para la IA a FAIRER: añadir Ética (incluida la transparencia) y Reproducibilidad, un principio que refuerza la integridad científica. Pensemos en las actuales crisis de reproducibilidad en psicología, medicina y economía", afirma. Los principios FAIR actuales no llegan lo suficientemente lejos". El auge de la IA y el dominio de las grandes tecnologías no hacen sino aumentar la presión sobre los investigadores para que obtengan éxitos rápidos. Muévete rápido, rompe cosas y discúlpate después", resume Sharma esta mentalidad, que no encaja con la investigación FAIRER. Además, los modelos de IA suelen trabajar con enormes conjuntos de datos, lo que puede crear una falsa sensación de fiabilidad. Pero, ¿está justificada esa confianza?


Error (2): La correlación es suficiente


Cynthia Liem, que investiga la validación y fiabilidad de la IA en la Universidad Técnica de Delft, habla de la investigación basada en datos: En todo el movimiento de la IA vemos la misma creencia: más mediciones significan más datos, lo que nos permite hacer las cosas de forma más eficiente y eficaz. En Silicon Valley, todo gira en torno a la escala, la abstracción y ser el más grande. Sólo quieren predicciones que coincidan con una fórmula de éxito probada, no les interesa nada más. Desde un punto de vista hipercapitalista estadounidense, eso tiene sentido. Pero científicamente, es mucho más complejo. Si encuentras una correlación sin una relación causal claramente defendible, ¿puedes realmente incluirla en tus conclusiones?".


Eso puede ser aceptable cuando se crea un producto. Pero si tu objetivo es comprender, explicar e interpretar un fenómeno en relación con la teoría científica, no es aceptable'.


En todo el movimiento de la IA vemos la misma creencia: más mediciones significan más datos, lo que nos permite hacer las cosas de forma más eficiente y eficaz.

Cynthia Liem


Mirando al futuro: ciencia más lenta, más reflexión


Hay desarrolladores e ingenieros de código abierto que ya reflexionan sobre esto. Sharma lo comprobó cuando visitó la conferencia de código abierto FOSDEM 2023, un evento no comercial para desarrolladores e ingenieros. Hubo animados debates sobre si los ingenieros deberían centrarse sólo en el aspecto técnico de su trabajo o considerar también sus implicaciones sociales. Al final, la mayoría estuvo de acuerdo -por razones éticas y de acuerdo con el principio de interoperabilidad- en que es esencial tener en cuenta el impacto social", afirma Sharma. Ignorarlo es una especie de pensamiento aislado, y eso no es buena ciencia".


Las 10 mejores prácticas FAIR de Skills4EOSC para la IA incluirán el requisito de que todas las consideraciones y análisis éticos se documenten durante el desarrollo del modelo. Sharma: "Sí, una mayor reflexión ralentiza el proceso científico, pero ¿es eso realmente malo? Tenemos que replantearnos qué entendemos por progreso científico".



/////////////////////////

Open science helps to assess the value of AI tools and data

  • 10 July 2025

Not only AI scientists, but almost all students and researchers today use AI tools in their research. To what extent is this use compliant with the principles of open science? And can open science help improve how we use AI tools?

Author: Malou van Hintum

‘AI scientists were among the first to embrace open source and open publication, along with other computer scientists,’ says Antal van den Bosch, faculty professor of Language, Communication and Computation at Utrecht University. ‘Take open publishing as an example: there’s a massive push underway to make journals open access. In our field, we’ve had that since the turn of the millennium.’  

He adds that most AI companies ‘are publishing like crazy’: ‘They usually don’t release their flagship products as open source, but older versions, slimmed-down models, or components often are. When Chinese AI-chatbot Deepseek released its smaller, lighter models, these were largely open source. The largest model, which they can monetise, is “open weight” – meaning it can be downloaded and used in its trained form. The same goes for all of Meta’s LLaMA models (language models),’ Van den Bosch continues: ’The software AI researchers create themselves, follows scientific open principles that go beyond FAIR (Findable, Accessible, Interoperable, and Reusable). ‘If you’re interested in open science, just come and take a look at our work.’

Fact: no one really knows the data  

That’s only part of the story. Van den Bosch also recognises that everyone outside his ‘microbubble’, as he calls it, uses AI tools developed by big tech companies. If we look at chatbots and machine learning models from big tech used by researchers who aren’t AI specialists, things look far less FAIR. And that’s mainly due to the data used to train these AI tools.

For instance, it’s entirely unclear what data popular chatbots like ChatGPT have been trained on. This has little to do with the FAIR principles of open science (data should be findable, accessible, interoperable, and reusable). Yet researchers who want to use AI in their work must understand the characteristics of the data they feed into these tools. But they can’t know this unless they’re using data they’ve collected themselves.  

Pitfall (1): ‘Everyone else is doing it’

Curtis Sharma (TU Delft) is the project lead at Skills for the European Open Science Commons (Skills4EOSC), a pan-European network of competence centres training researchers and data stewards in open and FAIR science. Sharma only uses the AI tools included in the PDF software he subscribes to. ‘I let those tools process PDFs I’ve selected myself — in a controlled environment. Maybe I expect too much, but I don’t think there are any truly reliable tools out there. Even paid versions can be less reliable than Wikipedia. After a while, they often just end up going in circles. I use them very sparingly.’  

Still, these tools are widely used, and Sharma understands why: ‘The big issue is the pressure to use them, simply because everyone else does. They save time and often feel validated by the results.’ And that’s a major pitfall because if an outcome matches your expectations doesn’t mean it’s correct or true. In an ideal world, all models would be trained on FAIR data. But that world doesn’t exist, and likely never will.

The big issue is the pressure to use them.

Curtis Sharma

Necessity: extensive metadata  

Many researchers using AI work with data collected by others meaning they can only be transparent about the quality and FAIRness of those datasets concerned. Sharma: ‘That means metadata — data about the data — needs to be as detailed as possible, including any vulnerabilities or ethical biases. Because we can’t start research with FAIR data, we should be as transparent as possible about what we are doing.’ For example, you can’t claim there’s no bias unless you can prove it. In other words: not finding bias doesn’t mean it isn’t there.’

In progress: Top 10 FAIR data practices for AI  

Skills4EOSC is currently developing a Top 10 list of FAIR data practices for AI

. You’d expect the training of models on FAIR data to be in the list — but there wasn’t quite enough agreement on that, Sharma explains. Not because researchers think it’s not important — they actually do — but because some value data quality more, which relates to how well the data fits a specific purpose. They see that as more important than its FAIRness, as this is considered too restrictive. Others find training models on FAIR data impractical, as FAIR does not necessarily mean open — where accessibility to the widest possible audience is the goal.  

Bonus: FAIRER principles for AI

Sharma wants to extend the FAIR principles for AI to FAIRER: adding Ethics (including transparency) and Reproducibility, a principle that strengthens scientific integrity. ‘Think of the current reproducibility crises in psychology, medicine, economics,’ he says. ‘The current FAIR principles therefore don’t reach far enough.’ The rise of AI and the dominance of big tech are only increasing the pressure on researchers to produce quick successes. ‘Move fast, break things, and apologise later,’ is how Sharma summarises that mindset — one that’s at odds with FAIRER research. What’s more, AI models often work with enormous datasets, which can create a false sense of reliability. But is that trust justified?  

Pitfall (2): ‘Correlation is good enough’

Cynthia Liem, who researches AI validation and reliability at TU Delft, says of data-driven research: ‘Across the AI movement we see the same belief — more measurements mean more data, which lets us do things more efficiently and effectively. In Silicon Valley, it’s all about scale, abstraction, and being the biggest. They just want predictions that match a proven success formula — they’re not really interested in anything else. From a hyper-capitalist American standpoint, that makes sense. But scientifically, it’s much more complex. If you find a correlation without a clearly defensible causal link, can you really include that in your conclusions?’

‘That may be acceptable when you're building a product. But if your goal is to understand, explain, and interpret a phenomenon in relation to scientific theory, it’s not acceptable.’   

Across the AI movement we see the same belief — more measurements mean more data, which lets us do things more efficiently and effectively.

Cynthia Liem

Looking ahead: slower science, more reflection

There are open-source developers and engineers who already reflect on this. Sharma saw that when he visited the 2023 FOSDEM Open Source conference — a non-commercial event for developers and engineers. There were lively debates about whether engineers should just focus on the technical side of their work or also consider its societal implications. ‘In the end, the majority agreed — for ethical reasons and in line with the principle of interoperability — that considering societal impact is essential,’ Sharma says. ‘Ignoring it is a kind of siloed thinking, and that’s not good science.’

Skills4EOSC’s Top 10 FAIR practices for AI will include the requirement that all ethical considerations and analyses need to be documented during model development. Sharma: ‘Yes, more reflection slows down the scientific process, but is that really a bad thing? We need to rethink what we mean by scientific progress.’

jueves, 2 de octubre de 2025

EUROPA: La ciencia abierta está ganando terreno, pero ¿funciona?... ¿la IA y la seguridad nacional permitirán sólo una "ciencia abierta cautelosa"?

Publicado en Science|Business
https://sciencebusiness.net/news/r-d-funding/open-science/open-science-gaining-ground-does-it-work  



La ciencia abierta está ganando terreno, pero ¿funciona?

16 de septiembre de 2025 | Noticias


Sigue habiendo dudas sobre cómo medir el impacto de la ciencia abierta y cómo encaja en la nueva agenda de competitividad y defensa de la UE.


Por Martin Greenacre.


Cada vez son más las iniciativas que surgen a nivel nacional y europeo para hacer un seguimiento de la implementación de la ciencia abierta, pero no se sabe lo suficiente sobre si las prácticas de ciencia abierta están produciendo los beneficios prometidos.


Esta es una de las lecciones que se desprenden de PathOS, un proyecto de Horizonte Europa cuyo objetivo es identificar formas de medir el impacto académico, económico y social de la ciencia abierta, y que publicará su informe final en las próximas semanas.


«Hasta ahora, nos hemos centrado demasiado en supervisar la aceptación y no lo suficiente en medir o evaluar los impactos», afirmó Tony Ross-Hellauer, investigador sénior del Know Center de Austria, al presentar los resultados del proyecto PathOS en una conferencia celebrada en la sede de la Unesco en París en julio.


Las prácticas de ciencia abierta tienen como objetivo poner el conocimiento científico al alcance de todos, en beneficio de la ciencia y la sociedad. Otros objetivos son mejorar la calidad de la investigación haciendo que la creación de conocimiento sea transparente y reproducible, y fomentar la participación ciudadana.  


En lo que respecta al seguimiento del impacto, actualmente se da demasiada importancia a la frecuencia con la que se cita una publicación, afirma Ross-Hellauer. «Tenemos que dejar de medir lo que es fácil de medir y empezar a buscar lo que es importante».


Los socios de PathOS han publicado un manual en el que se proponen múltiples indicadores del impacto de la ciencia abierta, incluidos aquellos que actualmente no es posible medir debido a la falta de datos. Uno de los principales retos que el proyecto se propuso abordar es la identificación de la causalidad. Una herramienta de código abierto puede tener una gran aceptación por parte de la industria, pero esto no es necesariamente consecuencia de su naturaleza abierta.


El proyecto PathOS trabajó en un marco de análisis de coste-beneficio para ayudar a cuantificar los impactos de la ciencia abierta, y ya ha publicado un informe preliminar sobre el tema.


«En la mayoría de los casos, el beneficio que se obtiene no es tangible», afirmó Natalia Manola, directora ejecutiva de OpenAIRE, una organización europea sin ánimo de lucro que promueve la ciencia abierta y es socia de PathOS. Entre los indicadores relevantes se incluyen el aumento de las colaboraciones y la visibilidad, según declaró a Science|Business.


Numerosas iniciativas 


El evento de París también fue testigo del lanzamiento de un conjunto de principios para la supervisión de la ciencia abierta, con el fin de apoyar la aplicación de la recomendación de la Unesco de 2021 sobre ciencia abierta, y del lanzamiento oficial de la segunda fase del Observatorio de Ciencia Abierta de la Nube Europea de Ciencia Abierta (EOSC).


La EOSC, que funciona como una asociación tripartita en el marco de Horizonte Europa, tiene como objetivo proporcionar a los investigadores acceso a datos abiertos y sólidos. El observatorio renovado ofrece datos sobre políticas e inversiones en ciencia abierta en toda Europa, así como sobre prácticas de ciencia abierta, y pronto se añadirá una sección sobre el impacto y ejemplos de casos de uso.


«Es una plataforma única porque contiene muchas fuentes diferentes reunidas en un solo lugar», explicó Tereza Szybisty, directora de proyectos de investigación de OpenAIRE, a Science|Business. Esta organización sin ánimo de lucro lidera el proyecto EOSC Track para construir la segunda fase del Observatorio de Ciencia Abierta.


El observatorio será útil para los responsables políticos y los investigadores que estudian cómo se practica la ciencia, pero también puede ayudar a informar a los investigadores sobre las políticas obligatorias de ciencia abierta en su país y las prácticas que podrían adoptar para ser más abiertos.


Intentar recopilar todos estos datos a posteriori resulta caro. Sería más eficiente hacerlo en el momento de la publicación, que es lo que EOSC pretende conseguir a largo plazo. El mensaje para los responsables políticos es claro, afirmó Manola. «Si quieren supervisar la ciencia abierta, si quieren supervisar su impacto, pónganse de acuerdo y conecten todo».


Además de estas iniciativas europeas e internacionales, varios países de la UE han elaborado sistemas nacionales de seguimiento, entre ellos el Open Science Monitor francés y el National Open Access Monitor irlandés. «Ya no se trata de si debemos hacer ciencia abierta, sino de cómo hacerlo bien», afirmó Szybisty.


Determinar el impacto no es el único reto que plantea la supervisión de la ciencia abierta. La falta de definiciones comunes a nivel europeo también supone un obstáculo, mientras que algunas personas consideran que la supervisión es un «ejercicio de marcar casillas» en lugar de una herramienta de aprendizaje útil, según Szybisty.


A pesar de la tendencia hacia el acceso abierto, a menudo sigue existiendo cierta incertidumbre en torno a la reutilización de publicaciones y datos, afirmó Szybisty. «Hay muchas fuentes de acceso abierto, pero a menudo no tienen licencia, por lo que no está claro si podemos utilizarlas ni en qué condiciones».


Tan abierto como sea posible, tan cerrado como sea necesario


Aunque Europa sigue comprometida con la ciencia abierta, en la práctica aún no está claro cómo podría afectar a estas ambiciones el nuevo enfoque en la competitividad económica y la financiación de tecnologías sensibles con potencial militar.  


«Creo que la ciencia abierta ha llegado para quedarse», afirmó Manola. Sin embargo, cree que la tendencia actual se inclina hacia una «ciencia abierta cautelosa».


En el pasado, las instituciones de investigación europeas practicaban la ciencia abierta de una manera «muy ingenua», proporcionando acceso abierto no solo a las publicaciones, sino también a los datos y al software, afirmó. Pero en la era de la inteligencia artificial y los riesgos de seguridad cada vez mayores, es necesario establecer límites. Las universidades deben contar con estructuras para gestionar estos derechos digitales. 


 «No creo que la competitividad esté reñida con la ciencia abierta», afirmó Manola. La Comisión Europea promueve la organización de los datos según los denominados principios FAIR: localizables, accesibles (en condiciones bien definidas), interoperables y reutilizables.


Por lo tanto, el acceso a los datos no tiene por qué ser abierto, pero sí debe ser transparente. Horizonte Europa sigue el principio de «tan abierto como sea posible, tan cerrado como sea necesario». Los resultados pueden mantenerse cerrados si el investigador desea explotarlos comercialmente, por ejemplo. Los investigadores no están obligados a publicar sus resultados, pero si lo hacen, deben ser de acceso abierto. 


Política del ERA   


La segunda agenda política del ERA, que describe las actividades voluntarias para implementar el Espacio Europeo de Investigación entre 2025 y 2027, incluye una acción a corto plazo sobre la aplicación de la equidad en la ciencia abierta y una política a más largo plazo para facilitar la ciencia abierta mediante el intercambio y la reutilización de datos.

Europa no es la única que impulsa una mayor apertura. En 2022, la Casa Blanca emitió un memorándum en el que se instaba a las agencias federales a actualizar sus políticas de acceso antes de finales de 2025 para que los resultados de las investigaciones financiadas con fondos federales se pusieran a disposición del público sin el anterior periodo de embargo de 12 meses.


Desde que Donald Trump regresó a la Casa Blanca, la independencia científica se ha visto amenazada. Sin embargo, hasta ahora, el compromiso con la ciencia abierta parece haberse mantenido, aunque el razonamiento haya pasado de democratizar el conocimiento a ofrecer a los contribuyentes una buena relación calidad-precio, según Szybisty.


Una orden ejecutiva de mayo de 2025 denominada «Restoring Gold Standard Science» (Restaurar la ciencia de referencia), que los críticos temen que refuerce el control político sobre las actividades de investigación, se envuelve en el lenguaje de la ciencia abierta, exigiendo transparencia y reproducibilidad.


*******************************

Open science is gaining ground, but does it work?

16 Sep 2025 | News


Questions remain on how to measure the impact of open science, and how it fits with the EU’s new competitiveness and defence agenda

By Martin Greenacre


A growing number of initiatives are emerging at national and European level to track the implementation of open science, but not enough is known about whether open science practices are producing the promised benefits.

This is one of the lessons from PathOS, a Horizon Europe project aiming to identify ways to measure the academic, economic and social impact of open science, which is due to publish its final report in the coming weeks.  

“So far, we’ve focused far too much on monitoring uptake and not enough on measuring or evaluating the impacts,” said Tony Ross-Hellauer, senior researcher at Know Center in Austria, as he presented findings from the PathOS project at a conference held at Unesco headquarters in Paris in July.

Open science practices aim to make scientific knowledge available to everyone, for the benefit of science and society. Other goals include improving research quality by making knowledge creation transparent and reproducible, and enhancing citizen participation.  

When it comes to tracking impact, too much emphasis is currently given to how often a publication is cited, Ross-Hellauer said. “We need to stop measuring what’s easy to measure and start looking for what’s important.”

The PathOS partners have published a handbook proposing multiple indicators for the impact of open science, including those which are not currently possible to track due to a lack of data. A major challenge which the project aimed to address is identifying causality. An open-source tool might show strong uptake by industry, but this is not necessarily a result of its open nature. 

The PathOS project worked on a cost-benefit analysis framework to help quantify the impacts of open science, and has already published a preliminary report on the topic.

“In most cases, the benefit you have is not tangible,” said Natalia Manola, chief executive of OpenAIRE, a European non-profit that promotes open science and is a partner in PathOS. Relevant indicators include increased collaborations and visibility, she told Science|Business.

Numerous initiatives    

The Paris event also saw the launch of a set of principles for open science monitoring, to support the implementation of Unesco’s 2021 recommendation on open science, and the official launch of the second phase of the European Open Science Cloud (EOSC) Open Science Observatory.

EOSC, which is run as a tripartite partnership under Horizon Europe, aims to give researchers access to open and robust data. The revamped observatory features data on open science policies and investments across Europe as well as on open science practices, and soon a section on impact and examples of use cases will be added.

“It’s a unique platform because it contains so many different sources all together in one place,” Tereza Szybisty, a research project manager at OpenAIRE, told Science|Business. The non-profit is leading the EOSC Track project to build the second phase of the Open Science Observatory. 

The observatory will be useful for policymakers and researchers looking at how science is practised, but it can also help inform researchers about mandatory open science policies in their country and practices they could adopt to be more open.

Trying to assemble all of this data after the fact is expensive. It would be more efficient to do so at the point of publication, which is what EOSC aims to achieve long-term. The message for policymakers is clear, Manola said. “If you want monitoring of open science, if you want to monitor the impact of this, get your act together and connect everything.”  

As well as these European and international initiatives, a number of EU countries have drawn up national monitoring systems, including the French Open Science Monitor and Ireland’s National Open Access Monitor. “It’s no longer a question of whether we should do open science, but how to do it well,” Szybisty said.

Determining impact is not the only challenge involved in monitoring open science. A lack of shared definitions at a European level is also a barrier, while some people see monitoring as a “box ticking exercise” rather than a useful learning tool, according to Szybisty.

Despite a trend towards open access, a degree of uncertainty often remains around reuse of publications and data, Szybisty said. “There are many open access sources, but often they don’t have a licence, so it’s not clear if we can use them or under what conditions.”

As open as possible, as closed as necessary

While Europe remains committed to open science, in practice, it is not yet clear how a new focus on economic competitiveness and funding for sensitive technologies with military potential could affect these ambitions.   

“I think open science is here to stay,” said Manola. However, she believes the current trend is towards “guarded open science.”

In the past, European research institutions practiced open science in a “very naïve” way, providing open access not just to publications but to data and software, she said. But limits are needed in the era of artificial intelligence and heightened security risks. Universities need to have structures in place to manage these digital rights. 

“I don’t think competitiveness is against open science,” Manola said. The European Commission promotes organising data according to the so-called FAIR principles: findable, accessible (under well-defined conditions), interoperable and re-usable.

Access to data does not therefore need to be open, but should be transparent. Horizon Europe follows the principle of “as open as possible, as closed as necessary.” Results can be kept closed if the researcher wants to exploit them commercially, for instance. Researchers are not obliged to publish their results, but if they do so, they should be open access. 

ERA policy  

The second ERA policy agenda, which outlines voluntary activities to implement the European Research Area between 2025 and 2027, includes a short-term action on applying equity in open science and a longer-term policy of enabling open science via the sharing and re-use of data.

Europe is not alone in its push towards more openness. In 2022, the White House issued a memorandum calling on federal agencies to update their access policies by the end of 2025 to make the results of federally funded research publicly available without the previous 12-month embargo period.

Since Donald Trump returned to the White House, scientific independence has come under threat. So far, however, the commitment to open science appears to have remained in place, even if the rationale has shifted from democratising knowledge to giving taxpayers value for money, Szybisty said.

A May 2025 executive order called Restoring Gold Standard Science, which critics fear will strengthen political control over research activities, is cloaked in the language of open science, calling for transparency and reproducibility.  

[PREPRINT] Descifrando el futuro del acceso Diamante: debate sobre los estándares de calidad para la recomunalización de las publicaciones académicas

Preprint disponible en  ZENODO https://zenodo.org/records/17552531 Publicado el 7 de noviembre de 2025 | Versión v1 Descifrando el futuro de...