viernes, 24 de octubre de 2025

Ciencia abierta con ética para la IA - Principios FAIRER para Datos abiertos

Publicado en NWO
https://www.nwo.nl/en/cases/open-science-helps-to-assess-the-value-of-ai-tools-and-data 



La ciencia abierta ayuda a evaluar el valor de las herramientas y los datos de IA


10 de julio de 2025


Hoy en día, no sólo los científicos especializados en IA, sino casi todos los estudiantes e investigadores utilizan herramientas de IA en sus investigaciones. ¿Hasta qué punto se ajusta este uso a los principios de la ciencia abierta? ¿Puede la ciencia abierta ayudar a mejorar el uso que hacemos de las herramientas de IA?


Autor: Malou van Hintum


Los científicos especializados en IA fueron de los primeros en adoptar el código abierto y la publicación abierta, junto con otros informáticos", afirma Antal van den Bosch, catedrático de Lenguaje, Comunicación y Computación de la Universidad de Utrecht. Tomemos como ejemplo la publicación abierta: se está dando un impulso masivo para que las revistas sean de acceso abierto. En nuestro campo, esto es así desde el cambio de milenio".


Añade que la mayoría de las empresas de IA «publican como locas»: No suelen publicar sus productos estrella como código abierto, pero sí las versiones antiguas, los modelos reducidos o los componentes. Cuando el chatbot chino Deepseek lanzó sus modelos más pequeños y ligeros, éstos eran en gran parte de código abierto. El modelo más grande, que pueden rentabilizar, es de «código abierto», lo que significa que puede descargarse y utilizarse en su forma original. Lo mismo ocurre con todos los modelos LLaMA (modelos lingüísticos) de Meta”, prosigue Van den Bosch: El software que crean los propios investigadores de IA sigue principios científicos abiertos que van más allá de FAIR (Findable, Accessible, Interoperable y Reusable). Si te interesa la ciencia abierta, ven y echa un vistazo a nuestro trabajo".


Realidad: nadie conoce realmente los datos


Eso es sólo una parte de la historia. Van den Bosch también reconoce que todo el mundo fuera de su «microburbuja», como él la llama, utiliza herramientas de IA desarrolladas por grandes empresas tecnológicas. Si nos fijamos en los chatbots y los modelos de aprendizaje automático de las grandes tecnológicas utilizados por investigadores que no son especialistas en IA, las cosas parecen mucho menos JUSTAS. Y esto se debe principalmente a los datos utilizados para entrenar estas herramientas de IA.


Por ejemplo, no está nada claro con qué datos se han entrenado chatbots tan populares como ChatGPT. Esto tiene poco que ver con los principios FAIR de la ciencia abierta (los datos deben ser localizables, accesibles, interoperables y reutilizables). Sin embargo, los investigadores que quieran utilizar la IA en su trabajo deben conocer las características de los datos que introducen en estas herramientas. Pero no pueden saberlo a menos que utilicen datos recogidos por ellos mismos.


Error (1): Todo el mundo lo hace


Curtis Sharma (TU Delft) dirige el proyecto Skills for the European Open Science Commons (Skills4EOSC), una red paneuropea de centros de competencia que forman a investigadores y administradores de datos en ciencia abierta y FAIR.


Sharma sólo utiliza las herramientas de IA incluidas en el software de PDF al que está suscrito. Dejo que esas herramientas procesen los PDF que yo mismo he seleccionado, en un entorno controlado. Quizá espero demasiado, pero no creo que existan herramientas realmente fiables. Incluso las versiones de pago pueden ser menos fiables que Wikipedia. Después de un tiempo, a menudo acaban dando vueltas en círculo. Las uso muy poco".


Aun así, estas herramientas se utilizan mucho, y Sharma entiende por qué: El gran problema es la presión para utilizarlas, simplemente porque todo el mundo lo hace. Ahorran tiempo y a menudo se sienten validados por los resultados". Y eso es un gran escollo, porque que un resultado coincida con tus expectativas no significa que sea correcto o cierto. En un mundo ideal, todos los modelos se entrenarían con datos FAIR. Pero ese mundo no existe y probablemente nunca existirá.


El gran problema es la presión para utilizarlos.


Curtis Sharma


Necesidad: metadatos exhaustivos


Muchos investigadores que utilizan la IA trabajan con datos recogidos por otros, lo que significa que sólo pueden ser transparentes en cuanto a la calidad y la imparcialidad de los conjuntos de datos en cuestión. Sharma: "Eso significa que los metadatos -datos sobre los datos- deben ser lo más detallados posible, incluyendo cualquier vulnerabilidad o sesgo ético. Como no podemos empezar a investigar con datos FAIR, debemos ser lo más transparentes posible sobre lo que estamos haciendo". Por ejemplo, no se puede afirmar que no hay sesgos a menos que se pueda demostrar. En otras palabras: no encontrar sesgos no significa que no existan".


En curso: Las 10 mejores prácticas de datos FAIR para la IA


Skills4EOSC está elaborando actualmente una lista de las 10 mejores prácticas de datos FAIR para la IA (a Top 10 list of FAIR data practices for AI). Cabría esperar que el entrenamiento de modelos con datos FAIR figurara en la lista, pero no hubo suficiente acuerdo al respecto, explica Sharma. No porque los investigadores piensen que no es importante -de hecho lo es-, sino porque algunos valoran más la calidad de los datos, que se refiere a su adecuación a un fin específico. Para ellos, esto es más importante que su carácter FAIR, ya que se considera demasiado restrictivo. Otros consideran poco práctica la formación de modelos a partir de datos FAIR, ya que FAIR no significa necesariamente abierto, cuando el objetivo es la accesibilidad al público más amplio posible.


Bono: principios FAIRER para la IA


Sharma quiere ampliar los principios FAIR para la IA a FAIRER: añadir Ética (incluida la transparencia) y Reproducibilidad, un principio que refuerza la integridad científica. Pensemos en las actuales crisis de reproducibilidad en psicología, medicina y economía", afirma. Los principios FAIR actuales no llegan lo suficientemente lejos". El auge de la IA y el dominio de las grandes tecnologías no hacen sino aumentar la presión sobre los investigadores para que obtengan éxitos rápidos. Muévete rápido, rompe cosas y discúlpate después", resume Sharma esta mentalidad, que no encaja con la investigación FAIRER. Además, los modelos de IA suelen trabajar con enormes conjuntos de datos, lo que puede crear una falsa sensación de fiabilidad. Pero, ¿está justificada esa confianza?


Error (2): La correlación es suficiente


Cynthia Liem, que investiga la validación y fiabilidad de la IA en la Universidad Técnica de Delft, habla de la investigación basada en datos: En todo el movimiento de la IA vemos la misma creencia: más mediciones significan más datos, lo que nos permite hacer las cosas de forma más eficiente y eficaz. En Silicon Valley, todo gira en torno a la escala, la abstracción y ser el más grande. Sólo quieren predicciones que coincidan con una fórmula de éxito probada, no les interesa nada más. Desde un punto de vista hipercapitalista estadounidense, eso tiene sentido. Pero científicamente, es mucho más complejo. Si encuentras una correlación sin una relación causal claramente defendible, ¿puedes realmente incluirla en tus conclusiones?".


Eso puede ser aceptable cuando se crea un producto. Pero si tu objetivo es comprender, explicar e interpretar un fenómeno en relación con la teoría científica, no es aceptable'.


En todo el movimiento de la IA vemos la misma creencia: más mediciones significan más datos, lo que nos permite hacer las cosas de forma más eficiente y eficaz.

Cynthia Liem


Mirando al futuro: ciencia más lenta, más reflexión


Hay desarrolladores e ingenieros de código abierto que ya reflexionan sobre esto. Sharma lo comprobó cuando visitó la conferencia de código abierto FOSDEM 2023, un evento no comercial para desarrolladores e ingenieros. Hubo animados debates sobre si los ingenieros deberían centrarse sólo en el aspecto técnico de su trabajo o considerar también sus implicaciones sociales. Al final, la mayoría estuvo de acuerdo -por razones éticas y de acuerdo con el principio de interoperabilidad- en que es esencial tener en cuenta el impacto social", afirma Sharma. Ignorarlo es una especie de pensamiento aislado, y eso no es buena ciencia".


Las 10 mejores prácticas FAIR de Skills4EOSC para la IA incluirán el requisito de que todas las consideraciones y análisis éticos se documenten durante el desarrollo del modelo. Sharma: "Sí, una mayor reflexión ralentiza el proceso científico, pero ¿es eso realmente malo? Tenemos que replantearnos qué entendemos por progreso científico".



/////////////////////////

Open science helps to assess the value of AI tools and data

  • 10 July 2025

Not only AI scientists, but almost all students and researchers today use AI tools in their research. To what extent is this use compliant with the principles of open science? And can open science help improve how we use AI tools?

Author: Malou van Hintum

‘AI scientists were among the first to embrace open source and open publication, along with other computer scientists,’ says Antal van den Bosch, faculty professor of Language, Communication and Computation at Utrecht University. ‘Take open publishing as an example: there’s a massive push underway to make journals open access. In our field, we’ve had that since the turn of the millennium.’  

He adds that most AI companies ‘are publishing like crazy’: ‘They usually don’t release their flagship products as open source, but older versions, slimmed-down models, or components often are. When Chinese AI-chatbot Deepseek released its smaller, lighter models, these were largely open source. The largest model, which they can monetise, is “open weight” – meaning it can be downloaded and used in its trained form. The same goes for all of Meta’s LLaMA models (language models),’ Van den Bosch continues: ’The software AI researchers create themselves, follows scientific open principles that go beyond FAIR (Findable, Accessible, Interoperable, and Reusable). ‘If you’re interested in open science, just come and take a look at our work.’

Fact: no one really knows the data  

That’s only part of the story. Van den Bosch also recognises that everyone outside his ‘microbubble’, as he calls it, uses AI tools developed by big tech companies. If we look at chatbots and machine learning models from big tech used by researchers who aren’t AI specialists, things look far less FAIR. And that’s mainly due to the data used to train these AI tools.

For instance, it’s entirely unclear what data popular chatbots like ChatGPT have been trained on. This has little to do with the FAIR principles of open science (data should be findable, accessible, interoperable, and reusable). Yet researchers who want to use AI in their work must understand the characteristics of the data they feed into these tools. But they can’t know this unless they’re using data they’ve collected themselves.  

Pitfall (1): ‘Everyone else is doing it’

Curtis Sharma (TU Delft) is the project lead at Skills for the European Open Science Commons (Skills4EOSC), a pan-European network of competence centres training researchers and data stewards in open and FAIR science. Sharma only uses the AI tools included in the PDF software he subscribes to. ‘I let those tools process PDFs I’ve selected myself — in a controlled environment. Maybe I expect too much, but I don’t think there are any truly reliable tools out there. Even paid versions can be less reliable than Wikipedia. After a while, they often just end up going in circles. I use them very sparingly.’  

Still, these tools are widely used, and Sharma understands why: ‘The big issue is the pressure to use them, simply because everyone else does. They save time and often feel validated by the results.’ And that’s a major pitfall because if an outcome matches your expectations doesn’t mean it’s correct or true. In an ideal world, all models would be trained on FAIR data. But that world doesn’t exist, and likely never will.

The big issue is the pressure to use them.

Curtis Sharma

Necessity: extensive metadata  

Many researchers using AI work with data collected by others meaning they can only be transparent about the quality and FAIRness of those datasets concerned. Sharma: ‘That means metadata — data about the data — needs to be as detailed as possible, including any vulnerabilities or ethical biases. Because we can’t start research with FAIR data, we should be as transparent as possible about what we are doing.’ For example, you can’t claim there’s no bias unless you can prove it. In other words: not finding bias doesn’t mean it isn’t there.’

In progress: Top 10 FAIR data practices for AI  

Skills4EOSC is currently developing a Top 10 list of FAIR data practices for AI

. You’d expect the training of models on FAIR data to be in the list — but there wasn’t quite enough agreement on that, Sharma explains. Not because researchers think it’s not important — they actually do — but because some value data quality more, which relates to how well the data fits a specific purpose. They see that as more important than its FAIRness, as this is considered too restrictive. Others find training models on FAIR data impractical, as FAIR does not necessarily mean open — where accessibility to the widest possible audience is the goal.  

Bonus: FAIRER principles for AI

Sharma wants to extend the FAIR principles for AI to FAIRER: adding Ethics (including transparency) and Reproducibility, a principle that strengthens scientific integrity. ‘Think of the current reproducibility crises in psychology, medicine, economics,’ he says. ‘The current FAIR principles therefore don’t reach far enough.’ The rise of AI and the dominance of big tech are only increasing the pressure on researchers to produce quick successes. ‘Move fast, break things, and apologise later,’ is how Sharma summarises that mindset — one that’s at odds with FAIRER research. What’s more, AI models often work with enormous datasets, which can create a false sense of reliability. But is that trust justified?  

Pitfall (2): ‘Correlation is good enough’

Cynthia Liem, who researches AI validation and reliability at TU Delft, says of data-driven research: ‘Across the AI movement we see the same belief — more measurements mean more data, which lets us do things more efficiently and effectively. In Silicon Valley, it’s all about scale, abstraction, and being the biggest. They just want predictions that match a proven success formula — they’re not really interested in anything else. From a hyper-capitalist American standpoint, that makes sense. But scientifically, it’s much more complex. If you find a correlation without a clearly defensible causal link, can you really include that in your conclusions?’

‘That may be acceptable when you're building a product. But if your goal is to understand, explain, and interpret a phenomenon in relation to scientific theory, it’s not acceptable.’   

Across the AI movement we see the same belief — more measurements mean more data, which lets us do things more efficiently and effectively.

Cynthia Liem

Looking ahead: slower science, more reflection

There are open-source developers and engineers who already reflect on this. Sharma saw that when he visited the 2023 FOSDEM Open Source conference — a non-commercial event for developers and engineers. There were lively debates about whether engineers should just focus on the technical side of their work or also consider its societal implications. ‘In the end, the majority agreed — for ethical reasons and in line with the principle of interoperability — that considering societal impact is essential,’ Sharma says. ‘Ignoring it is a kind of siloed thinking, and that’s not good science.’

Skills4EOSC’s Top 10 FAIR practices for AI will include the requirement that all ethical considerations and analyses need to be documented during model development. Sharma: ‘Yes, more reflection slows down the scientific process, but is that really a bad thing? We need to rethink what we mean by scientific progress.’

jueves, 23 de octubre de 2025

UNIÓN EUROPEA: Soberanía tecnológica y rezago en el mercado de semiconductores

Publicado en dplnews
https://dplnews.com/chip-europeo-cambiar-la-ley-de-semiconductores-traeria-soberania-y-competencia/



Chip europeo: ¿cambiar la ley de semiconductores traería soberanía y competencia?

Los 27 Estados miembros quieren una nueva Ley de Chips, como marco actualizado para un desarrollo sin contratiempos y que asegure la soberanía europea ante el nuevo escenario geopolítico. Lo de siempre pero, en este caso, con foco en los semiconductores, los cuales son considerados como columna vertebral para el desarrollo de verticales clave. Proponen mayor cooperación con terceros pero, al mismo tiempo, resiliencia y capacidades propias para hacer frente a cualquier contratiempo. El desafío es estar a tono con las novedades y el riesgo es que las reglas maten la innovación o, peor aún, que Europa lidere pero sólo desde el escritorio.

¿Nueva ley de Chips?

La Coalición de Semiconductores (Semicom) presentó a la Comisión Europea, con aval de los 27 miembros del bloque, un documento que pide reforzar la Ley de Chips para fortalecer la industria local de semiconductores. El texto considera que los chips son la columna vertebral de los sectores de crecimiento actuales de alto valor y que es fundamental una posición europea sólida en esta industria.

Las prioridades de las directrices son:

  1. Reforzar la colaboración entre industria, investigación pymes y empresas emergentes al tiempo de apoyar a los líderes europeos en innovación.
    • Fomentar fuertes alianzas industriales europeas complementarias, desde los proveedores y los actores de investigación hasta los mercados finales, para fortalecer y mejorar la viabilidad de toda la industria europea.
  2. Armonizar la financiación entre la Unión Europea y los Estados miembros: coordinar fondos, acelerar la aprobación de proyectos estratégicos y movilizar capital privado.
    • Garantizar que el nuevo Marco Financiero Plurianual (MFP) refleje la importancia de sectores y tecnologías estratégicos, como los semiconductores, y se base en estrategias y leyes.
  3. Impulsar la formación de una cantera de talentos europeos en la materia.
    • Apoyar la colaboración entre instituciones académicas de la Unión Europea, alentar a las partes interesadas a aumentar el intercambio de talento e investigadores y establecer un Programa Europeo de Competencias Chips.
  4. Apoyar el desarrollo de chips y componentes; promover una fabricación limpia, eficiente y circular.
    • Promover una fabricación más limpia a partir de la sustitución de sustancias peligrosas, el uso de energías renovables, la mejora de la eficiencia hídrica y el uso circular de materiales residuales en los procesos de producción y a lo largo de toda la cadena de valor.
  5. Fomentar la colaboración global con socios estratégicos afines.
    • Atraer capacidades estratégicas de fuera del bloque para complementar y reforzar el ecosistema europeo.

El documento se presenta bajo tres objetivos clave: prosperidad, lo que es igual a desarrollo para la creación de valor en distintos mercados; indispensabilidad, que se traduce en liderazgo europeo en la cadena de valor; y resiliencia, a través de un suministro estable y fiable de semiconductores. Considera como punto de partida, entre otros, que la meta de una participación de mercado del 20% planteada en la ley actual es poco realista y que no hay una dirección estratégica de cómo lograrlo.

Según datos de la Asociación de la Industria de Semiconductores (SIA, por sus siglas en inglés), Europa redujo su participación en el mercado global de chips en 2024 hasta 9.2%, pero se mantuvo en el podio de injerencia, detrás de Estados Unidos (50.4%) y Corea del Sur (21.1%). El mercado global está valuado en 630,500 millones de dólares; los sectores de ordenadores y comunicaciones demandan 68% de los chips a nivel global.



El texto está firmado por los nueve países parte de Semicom (Austria, Bélgica, Finlandia, Francia, Alemania, Italia, Polonia, España y Países Bajos), entidad creada en marzo pasado para “reforzar la competitividad y seguridad en Europa en el ámbito de los semiconductores”. También cuenta, según los involucrados, con respaldo de la industria.

Todos los firmantes se mostraron “dispuestos a colaborar con la Comisión Europea para proponer, redactar, adoptar e implementar una revisión rigurosa de la ley de Chips de la UE, que impulse el crecimiento continuo de un ecosistema europeo de semiconductores sólido e innovador”.

Actualización

La ley europea de chips actual corre desde el 21 de septiembre de 2023 tras la aprobación del Parlamento y el Consejo. Se presentó con los siguientes objetivos: reforzar el liderazgo tecnológico y de investigación de Europa para avanzar hacia la producción de chips más pequeños y rápidos, establecer un marco para aumentar la capacidad de producción hasta 2030; desarrollar y reforzar la capacidad de innovación en el diseño, fabricación y embalaje de chips avanzados; desarrollar una comprensión en profundidad de las cadenas mundiales de suministro de semiconductores; y abordar la escasez de capacidades, atraer nuevos talentos y fomentar la generación de una mano de obra cualificada.

Se propusieron, además, acciones específicas, algunas de las cuales fueron nuevamente recogidas en este punto de partida para su actualización. Entre ellas se encuentran inversiones en tecnologías de próxima generación; herramientas para la generación de prototipos y pruebas piloto; apoyo a empresas emergentes innovadoras; asociaciones internacionales y otras. Ya aparecían por entonces conceptos asociados como la necesidad de cooperación, pero asegurando un desarrollo que promueva la soberanía tecnológica del continente y la importancia de atraer y retener talento para hacer frente a los desafíos venideros.

Salir del escritorio

La tecnología e infraestructuras digitales tienen un papel fundamental en la vida de los ciudadanos y, ya hace rato, el mundo comprendió su importancia para el desarrollo económico de los países. Europa pretende ser escenario central en el recital de la innovación, algo que al momento ha logrado más desde el escritorio que en el campo de juego. Los actores quieren generar nuevas estrategias para que el bloque gane injerencia en el panorama geopolítico global y, con dudas en el cuándo, posiblemente la Unión Europea tome el guante y avance en una nueva versión de la Ley de Chips, aunque esto no aporte de forma directa, pero sí tangencialmente, a un liderazgo local en la materia.

La búsqueda de liderazgo europeo tiene argumentos sólidos, desde lo económico y por el propio impacto que las nuevas tecnologías prometen generar en las sociedades, pero también –esto más aún cuando se habla de regulación y no de logros tangibles, que también existen en territorio europeo– responde a una necesidad discursiva de no perder terreno frente a otras potencias, un punto largamente debatido este año por el conflicto arancelario con Estados Unidos. El origen de esta nueva etapa de interés por el liderazgo digital de Europa tiene como punto de partida la pandemia (y la recuperación post-pandemia) y la guerra Rusia-Ucrania, que dejó de manifiesto la necesidad de menor dependencia en las cadenas de valor.

Al tiempo que se puso en marcha una ley de Inteligencia Artificial o la propia Ley de Chips, por citar algunos ejemplos, Europa reconoce algunos desafíos por delante y el principal de ellos es funcionar como un equipo. Ya lo dijo la presidenta de la Comisión Europea, Ursula von der Leyen: “Nuestro mayor activo es el mercado único, pero (…) sigue estando incompleto principalmente en tres ámbitos: finanzas, energía y telecomunicaciones”. La industria coincide y, en el plano de las telecomunicaciones, pide a gritos reglas afines a la consolidación como paso necesario para “brindar conectividad de vanguardia, segura y resiliente” al continente.

En el aspecto más tecnológico se sugieren, otra vez, acciones para “mantener la resiliencia digital de Europa, incluso cuando haya volatilidad geopolítica”, como pidió Microsoft en una carta abierta en la que también consideró clave avanzar en nuevas medidas de ciberseguridad (incluido aquí la protección de la privacidad como base), reforzar la competitividad económica y apalancar la construcción de un ecosistema de IA y Nube. Los actores van cambiando, pero los pedidos son siempre similares, al igual que el argumento: hay que actuar para que Europa no quede “aún más rezagada” en una carrera tecnológica que se acelera.

Así, Europa se propone actualizar la Ley de Chips para adecuar el marco legal a los cambios de los últimos años pero, más que eso, evalúa acciones para no perder pisada al resto en el mercado que lo ubica en tercera posición en el globo. El problema es si, de nuevo, los temas tecnológicos pueden resolverse sólo desde el escritorio o, en realidad, si la fuerza de las acciones es suficiente en Europa para que la letra acompañe un liderazgo de hechos y sea funcional al desarrollo y no barrera para la innovación. Lo cierto es que se abre un nuevo debate, que tendrá actores y argumentos similares a los que hubo en la previa de la normativa hoy vigente.




jueves, 16 de octubre de 2025

U.S.A.: las revistas en la mira. La Admón. Trump abandera la crítica contra la corrupción de la industria editorial y farmacéutica... para imponer su propia agenda

Publicado en Inside Higher Ed
https://www.insidehighered.com/news/government/science-research-policy/2025/10/02/scientific-publishing-industry-faces-federal?utm_source=Inside+Higher+Ed&utm_campaign=011cae14d5-DNU_2021_COPY_02&utm_medium=email&utm_term=0_1fcbc04421-011cae14d5-236508634&mc_cid=011cae14d5&mc_eid=500f40f791 



2 de octubre de 2025


Las revistas científicas en el punto de mira


Las autoridades federales están planteando preocupaciones de larga data sobre las revistas de investigación y las estructuras de incentivos académicos que las sustentan. Pero los expertos afirman que el Gobierno por sí solo no puede reformar el sector.


Por  Kathryn Palmer


Las críticas de larga data a las publicaciones académicas están contribuyendo a alimentar los ataques de la Administración Trump contra la empresa científica del país.


Durante años, algunos miembros de la comunidad científica han dado la voz de alarma sobre el fraude en la investigación, las fábricas de artículos, la escasez de revisores cualificados y el alto coste de las suscripciones a revistas académicas y las tarifas de acceso abierto. Las investigaciones también sugieren que esos problemas tienen su origen en las estructuras de incentivos académicos que recompensan a los científicos por publicar un gran volumen de artículos en revistas muy citadas. 


En los últimos meses, Robert F. Kennedy Jr., secretario del Departamento de Salud y Servicios Humanos, y Jayanta Bhattacharya, director de los Institutos Nacionales de Salud, han puesto en el punto de mira a la industria editorial científica, cambiando políticas y utilizando sus plataformas para expresar sus propias críticas. Se han comprometido a abordar las preocupaciones sobre el sesgo, la desinformación y el acceso. En agosto, Bhattacharya escribió en un memorándum que parte de su estrategia para reconstruir la confianza del público en la ciencia incluirá centrarse en «investigaciones replicables, reproducibles y generalizables» como «la base de la verdad en la ciencia biomédica». La cultura de «publicar o perecer», añadió, «favorece la promoción de solo los resultados favorables, y el trabajo de replicación es poco valorado o recompensado».


Aunque numerosos expertos entrevistados por Inside Higher Ed afirmaron que algunas de las quejas del Gobierno sobre las publicaciones científicas son reales, se muestran escépticos sobre que las soluciones propuestas hasta ahora por el HHS y los NIH vayan a dar lugar a reformas significativas. Y uno de ellos advirtió que la Administración Trump, que sigue promoviendo la desinformación sobre las vacunas, entre otras cosas, está explotando esa realidad para promover su propia agenda ideológica.


«Todos sabemos que la ciencia y las publicaciones científicas se enfrentan a enormes problemas. Pero gran parte de la comunidad científica finge que no hay ningún problema», afirma Luís A. Nunes Amaral, profesor de ingeniería de la Universidad Northwestern y coautor de un artículo que identificó un aumento de los fraudes en la investigación durante los últimos 15 años. «Esta actitud empodera a los demagogos para que luego vengan y señalen problemas que son reales y reconocibles. Esto les da cierta sensación de [legitimidad], pero en realidad no están tratando de mejorar las cosas, sino de destruirlas».


Además de cancelar cientos de subvenciones de investigación del NIH que no se ajustan a las opiniones ideológicas de la administración Trump y proponer recortar el 40 % del presupuesto del NIH, el intento de la administración de reformar las publicaciones académicas podría acabar dando al Gobierno más control sobre las revistas que durante mucho tiempo han actuado como guardianas de la investigación científica validada.


«Completamente corrupto» 


Incluso antes de convertirse en el máximo responsable de salud pública del país a principios de este año, Kennedy calificó a varias revistas médicas de prestigio, entre ellas The New England Journal of Medicine y The Lancet, de «absolutamente corruptas», y afirmó durante su campaña presidencial de 2024 que quería emprender acciones legales contra ellas. Aunque todavía no ha demandado a ninguna revista, en mayo el secretario del HHS amenazó con prohibir a los científicos financiados por el Gobierno publicar en esas y otras revistas, alegando que están controladas por la industria farmacéutica.


La influencia de la industria farmacéutica es una preocupación que también han planteado los editores de revistas médicas. En 2009, Marcia Angell, antigua redactora jefe de NEJM, escribió que los vínculos financieros de los investigadores con las empresas farmacéuticas hacían que «ya no fuera posible creer gran parte de la investigación clínica que se publica».


Sin embargo, en un artículo de opinión publicado por STAT en junio, Angell y otros dos antiguos editores del NEJM explicaron que las revistas no crearon el problema, sino que los investigadores han llegado a depender del apoyo de las empresas farmacéuticas. No obstante, señalaron que las revistas han tomado medidas para mitigar la influencia de la industria, entre ellas exigir a los autores que revelen sus vínculos con las empresas pertinentes.


«Kennedy tiene razón al afirmar que la dependencia de la investigación médica de la financiación farmacéutica es un problema», escribieron los antiguos editores. «Pero las medidas de Kennedy como director del HHS, entre ellas los profundos recortes a los Institutos Nacionales de Salud y los ataques a nuestras mejores revistas médicas, agravarán ese problema».


Kennedy también ha planteado la idea de lanzar una revista gubernamental interna como solución para erradicar la corrupción. Pero Ivan Oransky, investigador médico y cofundador de Retraction Watch, dijo que eso también podría plantear dudas sobre la credibilidad.


«No estoy muy seguro de qué se consigue con la creación de una revista. No es más que otra revista que tendrá que competir con otras revistas», afirmó. «La otra pregunta es: ¿será imparcial y equilibrada? ¿Se interesará por la verdad y por difundir la buena ciencia o solo por la ciencia que [Kennedy] considera que vale la pena? Es un temor real, dadas muchas de sus declaraciones y lo que está tratando de hacer».


(Kennedy ha defendido numerosas afirmaciones médicas sin fundamento o desacreditadas, entre ellas que las vacunas causan autismo).


«Un desastre total»


Aunque Oransky reconoció que las publicaciones académicas son efectivamente «un desastre total» que «fomentan incentivos terribles que dificultan la confianza en toda la literatura científica», afirmó que «reorganizar las tumbonas del Titanic» no solucionará nada.


«El NIH es una importante fuente de financiación de la investigación, así que ¿por qué no cambian sus incentivos?», dijo. «Podrían cambiar el sistema de revisión por pares del NIH para que nadie privilegie las citas y las revistas de alto impacto».


Kennedy no es el único que ha cuestionado la integridad de las revistas médicas.


En abril, el entonces fiscal interino del Distrito de Columbia, Edward R. Martin Jr., envió cartas a numerosas revistas, entre ellas The Journal of the American Medical Association y CHEST (una revista publicada por el Colegio Americano de Médicos del Tórax), cuestionándolas por lo que él denominó sesgo político.


Y antes de asumir su cargo, Bhattacharya y Martin Kulldorff, un antiguo bioestadístico de la Universidad de Harvard, lanzaron su propia revista, The Journal of the Academy of Public Health, vinculada al sitio web de noticias de derecha RealClearPolitics, como contrapunto a las revistas convencionales. Durante la pandemia, Bhattacharya y Kulldorff fueron coautores de la Declaración de Great Barrington, que instaba a los responsables de salud pública a reducir las recomendaciones de confinamiento destinadas a mitigar la propagación de la enfermedad y que recibió críticas generalizadas por parte de los responsables de los NIH en ese momento. A los críticos les preocupa que la nueva revista se convierta en una plataforma para algunas de las investigaciones dudosas impulsadas por la administración Trump.


Dejando a un lado las preocupaciones políticas, la revista presume de pagar a los revisores y de ofrecer todo su contenido de forma gratuita, políticas que algunos defensores de la ciencia también han pedido que implementen más revistas. En julio, los NIH aceleraron la implementación de una política de la era Biden que exige a los investigadores financiados con fondos federales que depositen su trabajo en repositorios de acceso público designados por la agencia, incluido el PubMed Central, gestionado por los NIH, inmediatamente después de su publicación.


Pero abrir el acceso a la investigación científica no será suficiente para restaurar la confianza del público en la ciencia, afirmó Meagan Phelan, directora de comunicaciones de la familia de revistas Science.


«Si tu objetivo es recuperar la confianza del público, también tienes que escuchar las áreas de interés y preocupación públicas», afirmó, señalando que el proceso científico no siempre es bien comprendido por el público en general. «¿Qué tipo de cosas harán, además de publicar, para escuchar realmente las preocupaciones del público y ayudar a recuperar su confianza? No es tan sencillo como simplemente hacer que todo esto sea gratuito».


Como directora de los NIH, Bhattacharya también se ha comprometido a controlar la industria editorial académica con fines lucrativos, valorada en 19 000 millones de dólares, que los académicos, que suelen escribir y revisar artículos sin recibir compensación alguna, llevan mucho tiempo criticando por considerarla explotadora. En julio, los NIH propusieron limitar los gastos de procesamiento de artículos (APC) que algunas revistas cobran a los investigadores para que sus publicaciones sean de libre acceso, y que pueden oscilar entre cientos y miles de dólares.  


Bhattacharya ha afirmado que la medida tiene como objetivo acabar con los «incentivos perversos» que enriquecen a la industria editorial y hacer que «sea mucho más difícil para una pequeña élite científica decidir qué es verdad y qué es mentira».


Los científicos deben liderar la reforma


Aunque los científicos y los defensores del acceso abierto también han criticado los APC, varios afirman que no creen que el plan del NIH de implementar un límite artificial sea una estrategia lo suficientemente completa como para reformar las estructuras de incentivos académicos o de publicación científica.  


«Hoy en día, la publicación es un sistema muy complicado que tiene muchos objetivos entrelazados y contrapuestos. No es fácil cambiar una palanca y pensar que va a tener el efecto que queremos», afirma Jennifer Trueblood, directora del programa de ciencias cognitivas de la Universidad de Indiana en Bloomington. «A primera vista, limitar los APC puede parecer lógico para mucha gente. Pero, ¿cómo respondería una editorial comercial a eso? Podrían simplemente trasladar los costes a las bibliotecas y los lectores».


En cuanto a la reforma de las estructuras de incentivos que incitan a algunos científicos a publicar investigaciones defectuosas, el NIH tampoco podrá hacerlo por sí solo.


«El cambio debe ser liderado por los científicos», afirma Trueblood. «Las instituciones académicas deben replantearse cómo evalúan a los científicos y asegurarse de que esa evaluación no alimenta un sistema que apoya la publicación comercial». 


***********************************


October 02, 2025

Scientific Journals in the Hot Seat

Federal officials are raising long-standing concerns with research journals and the academic incentive structures propping them up. But experts say the government alone can’t overhaul the industry.

By  Kathryn Palmer


Long-standing criticisms of academic publishing are helping to fuel the Trump administration’s attacks on the nation’s scientific enterprise.

For years, some members of the scientific community have raised alarm about research fraud, paper mills, a paucity of qualified peer reviewers and the high cost of academic journal subscriptions and open-access fees. Research also suggests those problems are rooted in academic incentive structures that reward scientists for publishing a high volume of papers in widely cited journals. 

In recent months, Robert F. Kennedy Jr., secretary of the Department of Health and Human Services, and Jayanta Bhattacharya, director of the National Institutes of Health, have taken aim at the scientific publishing industry, changing policies and using their platforms to lodge their own criticisms. They’ve pledged to address concerns about bias, misinformation and access. In August, Bhattacharya wrote in a memo that part of his strategy to rebuild public trust in science will include focusing on “replicable, reproducible, and generalizable research” as “the basis for truth in biomedical science.” The “publish or perish” culture, he added, “favors the promotion of only favorable results, and replication work is little valued or rewarded.”

While numerous experts Inside Higher Ed interviewed said some of the government’s grievances about scientific publishing are real, they’re skeptical that the solutions the HHS and NIH have proposed so far will yield meaningful reforms. And one warned that the Trump administration—which continues to promote misinformation about vaccines, among other things—is exploiting that reality to further its own ideological agenda.  

“We all know there are enormous problems facing science and scientific publishing. But a lot of the scientific community is pretending there are no problems,” said Luís A. Nunes Amaral, an engineering professor at Northwestern University who co-authored a paper that identified a surge in research fraud over the past 15 years. “This attitude empowers demagogues to then come and point out issues that are real and recognizable. This gives them some sense of [legitimacy], but in reality they are not trying to improve things; they are trying to destroy them.”

In addition to terminating hundreds of NIH research grants that don’t align with the Trump administration’s ideological views and proposing to cut 40 percent of the NIH’s budget, the administration’s quest to reshape academic publishing could end up giving the government more control over journals that have long acted as the gatekeepers of validated scientific research.

‘Utterly Corrupt’  

Even before he became the nation’s top public health official earlier this year, Kennedy characterized multiple top medical journals, including The New England Journal of Medicine and The Lancet, as “utterly corrupt,” saying during his 2024 presidential campaign that he wanted to take legal action against them. Although he hasn’t sued any journals yet, as HHS secretary Kennedy threatened in May to bar government-funded scientists from publishing in those and other journals, claiming that they are controlled by the pharmaceutical industry.

Influence from the pharmaceutical industry is a concern editors of medical journals have also raised. In 2009, Marcia Angell, former editor in chief of NEJM, wrote that researchers’ financial ties to pharmaceutical companies made it “no longer possible to believe much of the clinical research that is published.”    

However, in an opinion article STAT published in June, Angell and two other former NEJM editors explained that journals didn’t create the issue, but researchers have come to rely on support from pharmaceutical companies. However, they noted that journals have taken steps to mitigate industry influence, including requiring authors to disclose ties to relevant companies.

“Kennedy is right that the dependence of medical research on pharmaceutical funding is a problem,” the former editors wrote. “But Kennedy’s actions as head of HHS—including his deep cuts to the National Institutes of Health and targeting of our best medical journals—will make that problem worse.” 

Kennedy has also floated the idea of launching an in-house government journal as a solution to rooting out corruption. But Ivan Oransky, a medical researcher and cofounder of Retraction Watch, said that could also raise credibility questions. 

“I’m not quite sure what creating a journal accomplishes. It’s just another journal that will have to compete with other journals,” he said. “The other question is, will it be fair and balanced? Will it be interested in what’s true and getting good science out there or only in science that [Kennedy] believes is worthwhile? That’s a real fear given a lot of his pronouncements and what he’s trying to do.”

(Kennedy has espoused numerous unsubstantiated or debunked medical claims, including that vaccines cause autism.)  

‘Hot Mess’

While Oransky acknowledged that academic publishing is indeed a “hot mess” that “encourages awful incentives that make it difficult to trust all of the scientific literature,” he said, “Rearranging deck chairs on the Titanic” won’t fix anything.

“The NIH is a major funder of research, so why don’t they change their incentives?” he said. “They could change the peer-review system at the NIH so that nobody privileges citations and high-impact-factor journals.”

Kennedy isn’t the only one who’s questioned the integrity of medical journals. 

In April, then-interim U.S. attorney for the District of Columbia Edward R. Martin Jr. sent letters to numerous journals, including The Journal of the American Medical Association and CHEST (a journal published by the American College of Chest Physicians), questioning them about what he called political bias.

And before taking his post, Bhattacharya and Martin Kulldorff, a former Harvard University biostatistician, launched their own journal—The Journal of the Academy of Public Health, which is linked to the right-wing news site RealClearPolitics—as a counter to mainstream journals. During the pandemic, Bhattacharya and Kulldorff co-authored the Great Barrington Declaration, which called on public health officials to scale back stay-at-home recommendations aimed at mitigating the spread of disease and received widespread criticism from NIH officials at the time. Critics worry that the new journal may become a platform for some of the dubious research pushed by the Trump administration. 

Political concerns aside, the journal touts that it pays peer reviewers and makes all of its content freely available—policies some science advocates have also called for more journals to implement. In July, the NIH sped up the implementation of a Biden-era policy that requires federally funded researchers to deposit their work into agency-designated public-access repositories, including the NIH-run PubMed Central, immediately upon publication.

But opening access to scientific research won’t be enough to restore public trust in science, said Meagan Phelan, communications director for the Science family of journals. 

“If your goal is to restore public trust, you also have to listen to areas of public interest and concern,” she said, noting that the scientific process isn’t always well understood by the general public. “What kinds of things will they do alongside publishing to really listen to public concern and help restore public trust? It’s not as simple as just making this stuff free.”

As NIH director, Bhattacharya has also pledged to rein in the $19 billion for-profit academic publishing industry, which academics, who typically author and peer review articles without compensation, have long criticized as exploitative. In July, the NIH proposed capping the article processing charges (APCs) some journals levy on researchers to make their publications freely available, which can range from hundreds to thousands of dollars.  

Bhattacharya has said the move is aimed at both ending the “perverse incentives” enriching the publishing industry and making it “much harder for a small number of scientific elite to say what’s true and false.”

Scientists Need to Lead Reform

While scientists and open-access advocates have also criticized APCs, several say they don’t think the NIH’s plan to implement an artificial cap is a comprehensive enough strategy to reform scientific publishing or academic incentive structures.

“Publishing now is a really complicated system that has a lot of competing, intertwined goals. It’s not easy to change one lever and think it’s going to have the effect that we want,” said Jennifer Trueblood, director of the cognitive science program at Indiana University at Bloomington. “On the surface, capping APCs may make sense to a lot of people. But how would a commercial publisher respond to that? They could easily just shift costs back to libraries and readers.”

And as for reforming the incentive structures tempting some scientists to publish faulty research, the NIH won’t be able to do that alone, either.

“A change needs to be led by scientists,” Trueblood said. “Academic institutions need to rethink how they’re evaluating scientists and making sure that evaluation isn’t feeding into a system that is supporting commercial publishing.”



Ciencia abierta con ética para la IA - Principios FAIRER para Datos abiertos

Publicado en NWO https://www.nwo.nl/en/cases/open-science-helps-to-assess-the-value-of-ai-tools-and-data   La ciencia abierta ayuda a evalua...