Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas
Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas

domingo, 2 de noviembre de 2025

BRASIL: dilemas geopolíticos para impulsar su soberanía tecnológica

Publicado en dpl news
https://dplnews.com/brasil-fortalece-su-agenda-digital-pero-enfrenta-dilemas-geopoliticos/





Brasil fortalece su agenda digital, pero enfrenta dilemas geopolíticos

 


San Pablo. Durante el ABES Summit 2025, el debate sobre los desdoblamientos de la geopolítica digital y de la era tecnopolar, descrita por la disputa global por datos, energía e infraestructura como eje del poder contemporáneo, cuestionó el papel de Brasil en todo esto que, aun reconociendo su potencial, sigue rezagado frente a las oportunidades.

La ingeniera Maria Veloso resaltó que la disputa dejó la diplomacia y migró hacia la infraestructura, al señalar que la soberanía en el siglo XXI dependerá de quién gobierne los flujos energéticos, digitales y ecológicos. Para ella, Brasil necesita comprender sus “fortalezas conectivas” y actuar sobre ellas. “Quien gobierna datos, energía e hiperinteligencias redibuja el planeta, y Brasil todavía espera para redibujar su lugar”, observó.

La urgencia de reposicionar al país en este tablero también fue defendida por Leonardo Barreto, quien señaló la necesidad de una política comercial y tecnológica capaz de transitar entre los polos de influencia de Estados Unidos y China. Según él, Brasil vive una “fase cognitiva”: entiende el fenómeno, pero aún no sabe cómo reaccionar.

“Necesitamos involucrar a la sociedad, al Congreso y al sector privado en una estrategia nacional de digitalización. Sin eso, seguiremos observando desde fuera una carrera que ya comenzó”, afirmó.

La idea fue reforzada por Daniel Parente, gerente de transformación digital de ApexBrasil, quien presentó el sector de software como un ejemplo de potencial subaprovechado: el país tiene más de 200 empresas exportadoras y un portafolio diverso (desde agritech hasta fintech y govtech), pero aún carece de una cultura de internacionalización. “El mercado externo también es para nosotros. Falta que el empresariado brasileño se vea como actor global”, completó.

Él reforzó el carácter estratégico de las alianzas internacionales y de la diplomacia digital. “Es ilusorio pensar que Brasil va a competir de inmediato con las grandes potencias en IA o semiconductores. Necesitamos asociarnos con naciones y empresas que nos impulsen”, dijo.

En el campo económico, el profesor Alberto Pfeifer, del Insper, llamó la atención sobre el costo de la vacilación. Recordó que el país acumula 200,000 millones de dólares de déficit en la balanza de servicios en cinco años, una cuarta parte de ellos ligados a tecnologías de la información y las comunicaciones (TIC). Para él, el sector es el único (y el más descuidado) capaz de alterar la inserción internacional de Brasil.

“No tenemos tiempo para formar toda una generación de ingenieros. Es necesario atraer capital humano y empresas de punta ahora, y crear centros de excelencia que formen a los próximos”, alertó. Pfeifer ve la soberanía tecnológica como un desafío doble: reducir la dependencia externa y transformar las ventajas ambientales y energéticas en poder económico concreto.

Entre diagnósticos y advertencias, el panel coincidió en un punto: Brasil comprende el nuevo mapa del poder, pero aún no ha trazado su propia ruta. El país, que podría ocupar una posición estratégica en la intersección entre lo digital y lo verde, sigue al margen de la disputa por infraestructura e innovación. Como sintetizó Maria Veloso, “no gobernar lo digital y lo ambiental es renunciar al propio metabolismo del planeta”.


Repórter e correspondente no Brasil

Jornalista, trabalhou na cobertura de diversos temas como educação, cultura e tecnologia. Atualmente escreve sobre políticas públicas, regulação e os mercados de telecomunicações e tecnologia com foco no Brasil.

miércoles, 29 de octubre de 2025

¿Qué está pasando con la lectura? para muchos, la inteligencia artificial puede estar poniendo fin a la era del texto tradicional

Publicado en blog Universo abierto
https://universoabierto.org/2025/07/21/que-esta-pasando-con-la-lectura-para-muchos-la-inteligencia-artificial-puede-estar-poniendo-fin-a-la-era-del-texto-tradicional/




¿Qué está pasando con la lectura? para muchos, la inteligencia artificial puede estar poniendo fin a la era del texto tradicional.

Rothman, Joshua. 2024. What’s Happening to Reading? For many people, A.I. may be bringing the age of traditional text to an end. The New Yorker, April 29, 2024. https://www.newyorker.com/culture/open-questions/whats-happening-to-reading

Joshua Rothman reflexiona sobre cómo la llegada de la inteligencia artificial y las pantallas está transformando radicalmente la experiencia de lectura. El autor sugiere que la lectura profunda y contemplativa, asociada al texto impreso, está siendo reemplazada por interacciones fragmentadas con la lectura digital, dominada por aplicaciones, redes sociales y modelos de lenguaje que condensan y simplifican la experiencia. Rothman cuestiona si estamos entrando en el final de la era dominada por el texto tradicional

En décadas pasadas, preguntas como “¿qué lees y por qué?” no solían ser tan urgentes. La lectura era una actividad común y establecida, sin mayores cambios desde la aparición de la industria editorial moderna en el siglo XIX. Antes de la era digital, leer un libro en un banco del parque era algo discreto y personal; nadie necesitaba saberlo si uno no lo contaba. La experiencia de leer se limitaba a deslizar la vista sobre las páginas en silencio, a un ritmo propio y sin interrupciones externas.

Sin embargo, en la actualidad la naturaleza de la lectura ha cambiado profundamente. Aunque muchas personas siguen disfrutando de los libros y publicaciones tradicionales, para otras el modelo clásico de lectura —profunda, continua y desde el inicio hasta el final— se ha vuelto casi obsoleto. Hoy en día, algunos comienzan un libro en un lector digital, lo continúan escuchando en formato audio, o directamente evitan los libros para pasar las horas navegando en noticias, blogs o redes sociales. La lectura actual es a la vez dispersa y concentrada, con palabras que fluyen aleatoriamente en una pantalla mientras otras plataformas, como YouTube, videojuegos o Netflix, compiten por nuestra atención constante.

Este cambio no ocurrió de la noche a la mañana, sino que ha sido un proceso gradual influenciado por tecnologías adoptadas mayormente por los jóvenes. Estadísticas recientes muestran una caída significativa en la lectura tradicional: por ejemplo, en Estados Unidos el porcentaje de adultos que leen al menos un libro al año bajó del 55% al 48% en una década, mientras que en adolescentes la caída fue aún más marcada. Esta disminución ha generado preocupación en profesores universitarios, que observan que muchos estudiantes tienen dificultades para leer textos complejos y extensos debido a la influencia de los dispositivos móviles.

El auge de la información en la era digital ofrece muchas nuevas formas de aprender, leer y entretenerse. ¿Realmente queremos volver a un tiempo con menos acceso a contenidos variados? Algunos académicos han interpretado la caída de la lectura tradicional como el fin del “paréntesis de Gutenberg,” un periodo histórico dominado por el texto impreso estructurado, que la llegada de internet habría cerrado, devolviéndonos a una comunicación más libre, descentralizada y conversacional, más cercana a una cultura oral moderna. Este fenómeno se ve reflejado en el auge de los podcasts, boletines y memes, que recuerdan las antiguas tradiciones de compartir conocimientos a través del diálogo.

Sin embargo, esta idea de una “segunda oralidad” puede resultar un poco anticuada. Vivimos en la era posterior a la dominación de redes sociales como Facebook, y ahora enfrentamos una nueva realidad: la inteligencia artificial (IA). En internet, no siempre interactuamos con personas reales, sino con entidades generadas por IA que han sido entrenadas con enormes cantidades de texto. Es como si los libros se hubieran “animado” para crear una nueva forma de comunicación que mezcla texto, pensamiento y conversación, transformando el valor y la utilidad de la palabra escrita.

La lectura digital favorece el escaneo rápido, saltos entre fragmentos y multitarea. Esto se relaciona con lo que expertos llaman el “screen inferiority effect”, donde la comprensión disminuye significativamente en lectura digital, en especial en lectores jóvenes. Una extensa meta‑revisión realizada en la Universidad de Valencia (con más de 450 000 participantes) reveló que la lectura impresa mejora la comprensión entre seis y ocho veces más que la digital. La explicación: la lectura en pantalla tiende a promover enfoques cognitivos superficiales, menor atención sostenida y mayor carga mental

Los estudiantes de primaria y secundaria experimentan mayor impacto negativo por la lectura digital, mientras que los niveles de comprensión mejoran ligeramente en lectores adolescentes y universitarios. Estudios como el de Altamura et al. (2023) muestran efectos negativos significativos para estudiantes más jóvenes, aunque menores a medida que se avanza en edad y habilidad lectora. Los resultados del programa PISA 2022 también revelan un descenso en el rendimiento de comprensión lectora en países de la OCDE, asociado en parte al uso excesivo de dispositivos digitales en el aula.

Rothman plantea que herramientas de IA como chatbots y modelos de lenguaje están redefiniendo la lectura: permiten resumen, explicación y edición inmediata, pero también podrían transformar la lectura en una actividad más utilitaria y menos reflexiva. Estudios recientes en entornos educativos advierten que el uso prolongado de IA puede debilitar significativamente el pensamiento crítico, debido al fenómeno de descarga cognitiva: los usuarios delegan el esfuerzo mental y pierden capacidad analítica.

Aunque la lectura impresa sigue ofreciendo ventajas claras en comprensión y concentración, el entorno digital no es inherente al fracaso lectivo. Algunos estudios señalan que los lectores que prefieren textos impresos obtienen mejores resultados, independientemente de su edad. La clave está en entrenar estrategias específicas para lectura digital, fomentar entornos sin distracciones y combinar formatos con intencionalidad pedagógica.

Si bien, la IA no puede reemplazar a lectores humanos que aportan originalidad y visión personal, sí tiene fortalezas únicas, como responder preguntas sin cansancio y simplificar textos complejos para hacerlos más accesibles. Así, la IA puede transformar cualquier texto en un punto de partida para aprender más o en una herramienta que acerca contenidos difíciles a un público más amplio.

Esta dinámica abre la puerta a difuminar la distinción entre fuentes originales y secundarias, especialmente para aquellos que buscan separar forma y contenido. Desde hace años, servicios como Blinkist ofrecen resúmenes condensados de libros de no ficción, y las ediciones abreviadas de novelas también son populares, lo que indica que muchos lectores prefieren captar la esencia de una obra sin dedicarle tanto tiempo.

Es posible que, en el futuro, empecemos a consumir textos en versiones resumidas o alteradas, y solo luego decidamos si queremos la obra completa, de forma similar a cómo hoy escuchamos podcasts acelerados o consultamos Wikipedia para entender mejor una serie. La IA facilitará esta transformación, generando versiones adaptadas al instante y dando más control a los lectores sobre cómo interactúan con los textos.

Rothman argumenta que la lectura profunda está bajo amenaza en un contexto dominado por pantallas e inteligencia artificial. La transformación va más allá de la forma: implica una redefinición cultural de lo que significa leer. Sin embargo, mediante el uso consciente de herramientas digitales, la educación adecuada y el fomento de la lectura impresa, es posible preservar y revitalizar la lectura reflexiva y crítica en un mundo cada vez más líquido textual.

viernes, 24 de octubre de 2025

Ciencia abierta con ética para la IA - Principios FAIRER para Datos abiertos

Publicado en NWO
https://www.nwo.nl/en/cases/open-science-helps-to-assess-the-value-of-ai-tools-and-data 



La ciencia abierta ayuda a evaluar el valor de las herramientas y los datos de IA


10 de julio de 2025


Hoy en día, no sólo los científicos especializados en IA, sino casi todos los estudiantes e investigadores utilizan herramientas de IA en sus investigaciones. ¿Hasta qué punto se ajusta este uso a los principios de la ciencia abierta? ¿Puede la ciencia abierta ayudar a mejorar el uso que hacemos de las herramientas de IA?


Autor: Malou van Hintum


Los científicos especializados en IA fueron de los primeros en adoptar el código abierto y la publicación abierta, junto con otros informáticos", afirma Antal van den Bosch, catedrático de Lenguaje, Comunicación y Computación de la Universidad de Utrecht. Tomemos como ejemplo la publicación abierta: se está dando un impulso masivo para que las revistas sean de acceso abierto. En nuestro campo, esto es así desde el cambio de milenio".


Añade que la mayoría de las empresas de IA «publican como locas»: No suelen publicar sus productos estrella como código abierto, pero sí las versiones antiguas, los modelos reducidos o los componentes. Cuando el chatbot chino Deepseek lanzó sus modelos más pequeños y ligeros, éstos eran en gran parte de código abierto. El modelo más grande, que pueden rentabilizar, es de «código abierto», lo que significa que puede descargarse y utilizarse en su forma original. Lo mismo ocurre con todos los modelos LLaMA (modelos lingüísticos) de Meta”, prosigue Van den Bosch: El software que crean los propios investigadores de IA sigue principios científicos abiertos que van más allá de FAIR (Findable, Accessible, Interoperable y Reusable). Si te interesa la ciencia abierta, ven y echa un vistazo a nuestro trabajo".


Realidad: nadie conoce realmente los datos


Eso es sólo una parte de la historia. Van den Bosch también reconoce que todo el mundo fuera de su «microburbuja», como él la llama, utiliza herramientas de IA desarrolladas por grandes empresas tecnológicas. Si nos fijamos en los chatbots y los modelos de aprendizaje automático de las grandes tecnológicas utilizados por investigadores que no son especialistas en IA, las cosas parecen mucho menos JUSTAS. Y esto se debe principalmente a los datos utilizados para entrenar estas herramientas de IA.


Por ejemplo, no está nada claro con qué datos se han entrenado chatbots tan populares como ChatGPT. Esto tiene poco que ver con los principios FAIR de la ciencia abierta (los datos deben ser localizables, accesibles, interoperables y reutilizables). Sin embargo, los investigadores que quieran utilizar la IA en su trabajo deben conocer las características de los datos que introducen en estas herramientas. Pero no pueden saberlo a menos que utilicen datos recogidos por ellos mismos.


Error (1): Todo el mundo lo hace


Curtis Sharma (TU Delft) dirige el proyecto Skills for the European Open Science Commons (Skills4EOSC), una red paneuropea de centros de competencia que forman a investigadores y administradores de datos en ciencia abierta y FAIR.


Sharma sólo utiliza las herramientas de IA incluidas en el software de PDF al que está suscrito. Dejo que esas herramientas procesen los PDF que yo mismo he seleccionado, en un entorno controlado. Quizá espero demasiado, pero no creo que existan herramientas realmente fiables. Incluso las versiones de pago pueden ser menos fiables que Wikipedia. Después de un tiempo, a menudo acaban dando vueltas en círculo. Las uso muy poco".


Aun así, estas herramientas se utilizan mucho, y Sharma entiende por qué: El gran problema es la presión para utilizarlas, simplemente porque todo el mundo lo hace. Ahorran tiempo y a menudo se sienten validados por los resultados". Y eso es un gran escollo, porque que un resultado coincida con tus expectativas no significa que sea correcto o cierto. En un mundo ideal, todos los modelos se entrenarían con datos FAIR. Pero ese mundo no existe y probablemente nunca existirá.


El gran problema es la presión para utilizarlos.


Curtis Sharma


Necesidad: metadatos exhaustivos


Muchos investigadores que utilizan la IA trabajan con datos recogidos por otros, lo que significa que sólo pueden ser transparentes en cuanto a la calidad y la imparcialidad de los conjuntos de datos en cuestión. Sharma: "Eso significa que los metadatos -datos sobre los datos- deben ser lo más detallados posible, incluyendo cualquier vulnerabilidad o sesgo ético. Como no podemos empezar a investigar con datos FAIR, debemos ser lo más transparentes posible sobre lo que estamos haciendo". Por ejemplo, no se puede afirmar que no hay sesgos a menos que se pueda demostrar. En otras palabras: no encontrar sesgos no significa que no existan".


En curso: Las 10 mejores prácticas de datos FAIR para la IA


Skills4EOSC está elaborando actualmente una lista de las 10 mejores prácticas de datos FAIR para la IA (a Top 10 list of FAIR data practices for AI). Cabría esperar que el entrenamiento de modelos con datos FAIR figurara en la lista, pero no hubo suficiente acuerdo al respecto, explica Sharma. No porque los investigadores piensen que no es importante -de hecho lo es-, sino porque algunos valoran más la calidad de los datos, que se refiere a su adecuación a un fin específico. Para ellos, esto es más importante que su carácter FAIR, ya que se considera demasiado restrictivo. Otros consideran poco práctica la formación de modelos a partir de datos FAIR, ya que FAIR no significa necesariamente abierto, cuando el objetivo es la accesibilidad al público más amplio posible.


Bono: principios FAIRER para la IA


Sharma quiere ampliar los principios FAIR para la IA a FAIRER: añadir Ética (incluida la transparencia) y Reproducibilidad, un principio que refuerza la integridad científica. Pensemos en las actuales crisis de reproducibilidad en psicología, medicina y economía", afirma. Los principios FAIR actuales no llegan lo suficientemente lejos". El auge de la IA y el dominio de las grandes tecnologías no hacen sino aumentar la presión sobre los investigadores para que obtengan éxitos rápidos. Muévete rápido, rompe cosas y discúlpate después", resume Sharma esta mentalidad, que no encaja con la investigación FAIRER. Además, los modelos de IA suelen trabajar con enormes conjuntos de datos, lo que puede crear una falsa sensación de fiabilidad. Pero, ¿está justificada esa confianza?


Error (2): La correlación es suficiente


Cynthia Liem, que investiga la validación y fiabilidad de la IA en la Universidad Técnica de Delft, habla de la investigación basada en datos: En todo el movimiento de la IA vemos la misma creencia: más mediciones significan más datos, lo que nos permite hacer las cosas de forma más eficiente y eficaz. En Silicon Valley, todo gira en torno a la escala, la abstracción y ser el más grande. Sólo quieren predicciones que coincidan con una fórmula de éxito probada, no les interesa nada más. Desde un punto de vista hipercapitalista estadounidense, eso tiene sentido. Pero científicamente, es mucho más complejo. Si encuentras una correlación sin una relación causal claramente defendible, ¿puedes realmente incluirla en tus conclusiones?".


Eso puede ser aceptable cuando se crea un producto. Pero si tu objetivo es comprender, explicar e interpretar un fenómeno en relación con la teoría científica, no es aceptable'.


En todo el movimiento de la IA vemos la misma creencia: más mediciones significan más datos, lo que nos permite hacer las cosas de forma más eficiente y eficaz.

Cynthia Liem


Mirando al futuro: ciencia más lenta, más reflexión


Hay desarrolladores e ingenieros de código abierto que ya reflexionan sobre esto. Sharma lo comprobó cuando visitó la conferencia de código abierto FOSDEM 2023, un evento no comercial para desarrolladores e ingenieros. Hubo animados debates sobre si los ingenieros deberían centrarse sólo en el aspecto técnico de su trabajo o considerar también sus implicaciones sociales. Al final, la mayoría estuvo de acuerdo -por razones éticas y de acuerdo con el principio de interoperabilidad- en que es esencial tener en cuenta el impacto social", afirma Sharma. Ignorarlo es una especie de pensamiento aislado, y eso no es buena ciencia".


Las 10 mejores prácticas FAIR de Skills4EOSC para la IA incluirán el requisito de que todas las consideraciones y análisis éticos se documenten durante el desarrollo del modelo. Sharma: "Sí, una mayor reflexión ralentiza el proceso científico, pero ¿es eso realmente malo? Tenemos que replantearnos qué entendemos por progreso científico".



/////////////////////////

Open science helps to assess the value of AI tools and data

  • 10 July 2025

Not only AI scientists, but almost all students and researchers today use AI tools in their research. To what extent is this use compliant with the principles of open science? And can open science help improve how we use AI tools?

Author: Malou van Hintum

‘AI scientists were among the first to embrace open source and open publication, along with other computer scientists,’ says Antal van den Bosch, faculty professor of Language, Communication and Computation at Utrecht University. ‘Take open publishing as an example: there’s a massive push underway to make journals open access. In our field, we’ve had that since the turn of the millennium.’  

He adds that most AI companies ‘are publishing like crazy’: ‘They usually don’t release their flagship products as open source, but older versions, slimmed-down models, or components often are. When Chinese AI-chatbot Deepseek released its smaller, lighter models, these were largely open source. The largest model, which they can monetise, is “open weight” – meaning it can be downloaded and used in its trained form. The same goes for all of Meta’s LLaMA models (language models),’ Van den Bosch continues: ’The software AI researchers create themselves, follows scientific open principles that go beyond FAIR (Findable, Accessible, Interoperable, and Reusable). ‘If you’re interested in open science, just come and take a look at our work.’

Fact: no one really knows the data  

That’s only part of the story. Van den Bosch also recognises that everyone outside his ‘microbubble’, as he calls it, uses AI tools developed by big tech companies. If we look at chatbots and machine learning models from big tech used by researchers who aren’t AI specialists, things look far less FAIR. And that’s mainly due to the data used to train these AI tools.

For instance, it’s entirely unclear what data popular chatbots like ChatGPT have been trained on. This has little to do with the FAIR principles of open science (data should be findable, accessible, interoperable, and reusable). Yet researchers who want to use AI in their work must understand the characteristics of the data they feed into these tools. But they can’t know this unless they’re using data they’ve collected themselves.  

Pitfall (1): ‘Everyone else is doing it’

Curtis Sharma (TU Delft) is the project lead at Skills for the European Open Science Commons (Skills4EOSC), a pan-European network of competence centres training researchers and data stewards in open and FAIR science. Sharma only uses the AI tools included in the PDF software he subscribes to. ‘I let those tools process PDFs I’ve selected myself — in a controlled environment. Maybe I expect too much, but I don’t think there are any truly reliable tools out there. Even paid versions can be less reliable than Wikipedia. After a while, they often just end up going in circles. I use them very sparingly.’  

Still, these tools are widely used, and Sharma understands why: ‘The big issue is the pressure to use them, simply because everyone else does. They save time and often feel validated by the results.’ And that’s a major pitfall because if an outcome matches your expectations doesn’t mean it’s correct or true. In an ideal world, all models would be trained on FAIR data. But that world doesn’t exist, and likely never will.

The big issue is the pressure to use them.

Curtis Sharma

Necessity: extensive metadata  

Many researchers using AI work with data collected by others meaning they can only be transparent about the quality and FAIRness of those datasets concerned. Sharma: ‘That means metadata — data about the data — needs to be as detailed as possible, including any vulnerabilities or ethical biases. Because we can’t start research with FAIR data, we should be as transparent as possible about what we are doing.’ For example, you can’t claim there’s no bias unless you can prove it. In other words: not finding bias doesn’t mean it isn’t there.’

In progress: Top 10 FAIR data practices for AI  

Skills4EOSC is currently developing a Top 10 list of FAIR data practices for AI

. You’d expect the training of models on FAIR data to be in the list — but there wasn’t quite enough agreement on that, Sharma explains. Not because researchers think it’s not important — they actually do — but because some value data quality more, which relates to how well the data fits a specific purpose. They see that as more important than its FAIRness, as this is considered too restrictive. Others find training models on FAIR data impractical, as FAIR does not necessarily mean open — where accessibility to the widest possible audience is the goal.  

Bonus: FAIRER principles for AI

Sharma wants to extend the FAIR principles for AI to FAIRER: adding Ethics (including transparency) and Reproducibility, a principle that strengthens scientific integrity. ‘Think of the current reproducibility crises in psychology, medicine, economics,’ he says. ‘The current FAIR principles therefore don’t reach far enough.’ The rise of AI and the dominance of big tech are only increasing the pressure on researchers to produce quick successes. ‘Move fast, break things, and apologise later,’ is how Sharma summarises that mindset — one that’s at odds with FAIRER research. What’s more, AI models often work with enormous datasets, which can create a false sense of reliability. But is that trust justified?  

Pitfall (2): ‘Correlation is good enough’

Cynthia Liem, who researches AI validation and reliability at TU Delft, says of data-driven research: ‘Across the AI movement we see the same belief — more measurements mean more data, which lets us do things more efficiently and effectively. In Silicon Valley, it’s all about scale, abstraction, and being the biggest. They just want predictions that match a proven success formula — they’re not really interested in anything else. From a hyper-capitalist American standpoint, that makes sense. But scientifically, it’s much more complex. If you find a correlation without a clearly defensible causal link, can you really include that in your conclusions?’

‘That may be acceptable when you're building a product. But if your goal is to understand, explain, and interpret a phenomenon in relation to scientific theory, it’s not acceptable.’   

Across the AI movement we see the same belief — more measurements mean more data, which lets us do things more efficiently and effectively.

Cynthia Liem

Looking ahead: slower science, more reflection

There are open-source developers and engineers who already reflect on this. Sharma saw that when he visited the 2023 FOSDEM Open Source conference — a non-commercial event for developers and engineers. There were lively debates about whether engineers should just focus on the technical side of their work or also consider its societal implications. ‘In the end, the majority agreed — for ethical reasons and in line with the principle of interoperability — that considering societal impact is essential,’ Sharma says. ‘Ignoring it is a kind of siloed thinking, and that’s not good science.’

Skills4EOSC’s Top 10 FAIR practices for AI will include the requirement that all ethical considerations and analyses need to be documented during model development. Sharma: ‘Yes, more reflection slows down the scientific process, but is that really a bad thing? We need to rethink what we mean by scientific progress.’

[PREPRINT] Descifrando el futuro del acceso Diamante: debate sobre los estándares de calidad para la recomunalización de las publicaciones académicas

Preprint disponible en  ZENODO https://zenodo.org/records/17552531 Publicado el 7 de noviembre de 2025 | Versión v1 Descifrando el futuro de...