lunes, 6 de enero de 2025

[ IA y Revisión por pares ] Si se escribe con IA... ¿La revisión de los escrito también debe usar la IA?

Publicado en blog Impact of Social Sciences (London School of Economics-LSE)
https://blogs.lse.ac.uk/impactofsocialsciences/2024/09/25/if-generative-ai-accelerates-science-peer-review-needs-to-catch-up/ 



Simone Ragavooloo


25 de septiembre de 2024


Si la IA generativa acelera la ciencia, la revisión por pares debe ponerse al día



Cada vez hay más estudios que demuestran el uso generalizado de la IA generativa en las publicaciones de investigación. Ante el consiguiente aumento del número de publicaciones, Simone Ragavooloo argumenta que los editores y revisores deberían adoptar herramientas de IA para realizar el trabajo pesado de la revisión estadística y metodológica y permitirles centrarse en áreas que requieren experiencia humana.


La inteligencia artificial está transformando la ciencia y la edición científica debe seguir el ritmo de este cambio. El informe Top 10 Emerging Technologies of 2024 del Foro Económico Mundial destaca los miles de millones de fondos que se están invirtiendo en IA sólo en el ámbito de los descubrimientos científicos.


La IA ya se aplica ampliamente en la investigación, desde el descubrimiento de nuevas familias de antibióticos hasta el estudio de innumerables fenómenos sociales y culturales. El Consejo de Asesores sobre Ciencia y Tecnología del Presidente de Estados Unidos (PCAST) ha declarado que «la IA tiene el potencial de transformar todas las disciplinas científicas y muchos aspectos de la forma en que hacemos ciencia». El potencial transformador de la IA no sólo reside en cómo investigamos, sino en cuánta investigación científica producimos, como se reconoce en el informe de la OCDE 2023 Artificial Intelligence in Science: «aumentar la productividad de la investigación podría ser el más valioso económica y socialmente de todos los usos de la IA». Por favor denos unos días más para intentar tener una opinión más consolidada


Los editores deben ahora adaptarse e innovar como lo hicieron durante el paso de lo impreso a lo digital a finales del siglo XX. Sin embargo, la revisión por pares supone un reto para estas visiones. Se calcula que en 2020 se dedicarán 100 millones de horas a la revisión por pares, una cifra que podría aumentar exponencialmente si no se apoya a los revisores. Dado que algunos ya consideran que el sistema actual funciona al límite de su capacidad, Lisa Messeri y M. J. Crockett afirman que una «ciencia a gran escala» basada en la inteligencia artificial podría provocar una «ilusión de comprensión», en la que un aumento significativo de la productividad y los resultados científicos no se viera correspondido por la perspicacia y el criterio humanos.


Una de las respuestas es combinar lo similar con lo similar. Para liberar la experiencia de los revisores humanos, necesitamos desarrollar y confiar más en las herramientas de revisión por pares y de integridad de la investigación basadas en IA para que hagan el trabajo pesado. El primer paso es evitar que la ciencia fraudulenta o simplemente «mala» entre en el proceso de revisión por pares. La situación de la integridad de la investigación es análoga al uso que hacen la ciberseguridad y el sector financiero de la IA para combatir el fuego con fuego. Estas aplicaciones ponen de relieve la capacidad de la IA para procesar grandes cantidades de datos e identificar anomalías a un ritmo que no puede igualar la detección humana. De hecho, ya existen herramientas de IA en la integridad de la investigación, AIRA de Frontiers se puso en línea ya en 2018 y ahora se une a una serie de herramientas de IA que abordan diversos aspectos del fraude en la investigación. La Asociación Internacional de Editores Científicos, Técnicos y Médicos (STM) creó recientemente el Centro de Integridad STM para agregar y aprovechar estas innovaciones tecnológicas en los editores de investigación. 


Por muy positivas que sean estas medidas de las editoriales para proteger la integridad de la investigación, el mayor reto al que se enfrentan las editoriales en relación con la IA no son las prácticas malignas de unos pocos, sino la adopción positiva de herramientas de IA para hacer avanzar y agilizar la investigación por parte de muchos.  


Entonces, ¿qué hay que hacer? Las editoriales deben superar las limitaciones iniciales de la IA y los primeros grandes modelos lingüísticos (incluidos los datos disponibles para entrenar estos LLM) y aprovechar el potencial de la revisión por pares basada en la IA. Los datos abiertos son un primer ejemplo de esta tendencia. Los datos abiertos, un principio básico del movimiento de la ciencia abierta, permiten a la IA en el descubrimiento científico establecer la conexión entre los datos interoperables producidos por diferentes equipos de investigación.  A medida que los datos científicos obtenidos mediante IA se hacen más grandes y complejos, la tarea clave de los revisores de detectar errores metodológicos y estadísticos en las presentaciones se vuelve más exigente. Una situación que a menudo se ve agravada por la falta de formación y conocimientos estadísticos avanzados de algunos investigadores. Por lo tanto, la combinación de IA con ciencia abierta/datos abiertos tiene el potencial de aumentar los descubrimientos científicos y la innovación, pero también crea combinaciones más complejas de datos y más riesgo de que se introduzcan fallos en los conjuntos de datos.


Por poner un ejemplo real, un equipo científico líder produjo datos originales con buena intención, utilizando el aprendizaje automático para identificar microbiomas asociados al cáncer. El escrutinio por pares posterior a la publicación identificó problemas con los datos y señaló la «avalancha» de estudios posteriores que utilizaron estos datos creyéndolos sólidos. A ello siguieron retractaciones e investigaciones relacionadas.  Desde el punto de vista del editor y de la revisión por pares, la pregunta es cómo se pudo evitar que los datos entraran en el registro científico. A este respecto, todavía nos encontramos en un periodo de transición, en el que los investigadores y editores siguen aprendiendo de este tipo de incidentes y adaptando las metodologías de investigación y los protocolos de revisión por pares a medida que se generaliza el uso de la IA y los LLM en la investigación.   


Las editoriales tienen la escala y la experiencia tecnológica para experimentar y desarrollar herramientas en este ámbito. A medida que aumentan las aplicaciones de la IA en la investigación científica, no es deseable ni factible confiar en un pequeño grupo de revisores estadísticos para hacer el trabajo pesado con datos cada vez más complejos producidos a un ritmo más rápido.  Las herramientas de los editores deberían ayudar tanto a los autores como a los revisores detectando automáticamente y con precisión errores o anomalías estadísticas, sugiriendo métodos estadísticos apropiados y proporcionando un análisis preliminar de los datos de los investigadores. Si logramos esto, incluso con grandes conjuntos de datos generados por IA, el proceso de revisión seguirá siendo sólido pero racionalizado, liberando a los revisores humanos para que se centren en otros aspectos críticos del manuscrito.


Hay dos cosas claras. En primer lugar, la revisión por pares no puede mantenerse en su estado actual a medida que la IA aumenta la producción científica. En segundo lugar, a medida que crece el volumen de la investigación, la colaboración, así como la innovación, son esenciales para proteger el discurso científico y la integridad del registro científico. ¿Qué aspecto tiene la cooperación entre publicaciones e investigaciones, desde la mesa del laboratorio hasta la página del editor, y cómo podemos impulsarla? ¿Podemos desarrollar herramientas de inteligencia artificial lo suficientemente avanzadas como para detectar grandes volúmenes de datos defectuosos antes de que se incorporen al registro científico? ¿Cómo funcionaría un sistema de alerta para todos los editores (similar a las alertas de ciberseguridad) para compartir información que impida la difusión de datos y análisis erróneos?


La IA en la ciencia y la edición se encuentra en sus primeras fases, pero ya es una realidad que hay que abordar y seguir desarrollando.  Juntos debemos abrir el camino hacia el potencial de la IA en la innovación científica. 



Sobre la autora

Simone Ragavooloo


Simone Ragavooloo es experta en integridad de la investigación y asesora del Comité de Ética de las Publicaciones (COPE). Su trabajo se centra en ayudar a los editores a formular y aplicar políticas que promuevan la integridad de la investigación y eleven las normas éticas de publicación. Es una firme defensora del papel fundamental que desempeñan los editores en la formulación de políticas y la influencia en la conducta ética dentro de la comunidad investigadora. Simone ha ocupado puestos relacionados en BMJ y Springer Nature y actualmente aporta su experiencia en Frontiers como Directora de Cartera de Integridad de la Investigación. 



****************


Simone Ragavooloo

September 25th, 2024

If generative AI accelerates science, peer review needs to catch up



Studies have increasingly shown the widespread use of generative AI in research publications. Faced with the consequent uptick in the number of publications, Simone Ragavooloo argues that editors and reviewers should embrace AI tools to undertake the heavy lifting of statistical and methodological review and to allow them to focus on areas that require human expertise.

Artificial Intelligence is transforming science and science publishing must keep pace with this change. The World Economic Forum’s Top 10 Emerging Technologies of 2024 report highlights the billions of funding being ploughed into AI in scientific discovery alone.

AI is now already widely applied in research, from discovering new families of antibiotics to studying myriad social and cultural phenomena. The United States’ President’s Council of Advisors on Science and Technology (PCAST) has stated “AI has the potential to transform every scientific discipline and many aspects of the way we conduct science.” AI’s transformative potential lies not only in how we do research, but in how much scientific research we produce, as recognised in the OECD’s 2023 Artificial Intelligence in Science report: “raising the productivity of research could be the most economically and socially valuable of all the uses of AI”.

Publishers must now adapt and innovate just as they did during the shift from print to digital at the end of the 20th century. However, peer review presents a challenge to these visions. 100 million hours were estimated to be spent on peer review in 2020, a figure that could rise exponentially if reviewers are not supported. Given that the current system is already viewed by some as working at capacity, Lisa Messeri and M J. Crockett have argued an AI-enabled ‘science-at-volume’ could lead to the ‘illusion of understanding’, whereby a significant escalation in scientific productivity and output is not matched by human insight and judgement.

One answer is to meet like with like. To free up human reviewer expertise, we need to develop and trust more in AI-enabled peer review and research integrity tools to do the heavy lifting. Preventing fraudulent and plain, old ‘bad’ science entering the peer review process is the first step. The situation in research integrity is analogous here with cyber security’s and the finance sector’s use of AI to fight fire with fire. These applications highlight AI’s capability to process vast amounts of data and identify anomalies at a rate that cannot be matched by human detection. Indeed, AI-tools in research integrity already exist, Frontiers’ AIRA came online as early as 2018 and is now joined by an array of AI-tools tackling various aspects of research fraud. The International Association of Scientific, Technical and Medical Publishers (STM) recently created the STM Integrity Hub to aggregate and harness such technological innovations across research publishers.  

Positive as these steps are by publishers to protect research integrity, the greatest challenge facing publishers in relation to AI is not malign practices by the few, but the positive adoption of AI tools to advance and expediate research by the many.

So, what is to be done? Publishers need to get past initial limitations with AI and early large language models (including the data available to train these LLMs) and realise the potential of AI-enabled peer review. Open data is an early example of this trend. A core tenet of the open science movement, open data enables AI-in-scientific-discovery to make the connection between interoperable data produced by different research teams.  As AI-enabled scientific data becomes bigger and more complex, the key reviewer task of spotting methodological and statistical errors in submissions becomes more demanding. A situation that is often exacerbated by the lack of advanced statistical training and expertise for some researchers. The combination of AI with open science/open data therefore has the potential to increase scientific discovery and innovation, but it also creates more complex combinations of data and more risk of flaws being introduced to datasets.   

To give a real-world example, a-leading science team produced original data with good intent, using machine-learning to identify microbiomes associated with cancer. Post-publication peer scrutiny identified problems with the data and pointed to the “flurry” of subsequent studies that used this data believing it to be sound. Retractions and related investigations followed.  From a publisher and peer review perspective, the question is how the data could have been prevented from entering the scientific record? In this respect, we are all still in the transitional period, where researchers and publishers continue to learn from such incidents and adapt research methodologies and peer-review protocols as the use of AI and LLMs in research becomes widespread.

Publishers have the scale and technological expertise to experiment and develop tools in this space. As more applications of AI in scientific research come online, it is neither desirable nor feasible to rely on a small pool of statistical reviewers to do the heavy lifting with evermore complex data produced at a faster rate.  Publishers’ tools should assist both authors and reviewers by automatically and accurately detecting statistical errors or anomalies, suggesting appropriate statistical methods, and providing a preliminary analysis of researchers’ data. If we can achieve this, then even with big, AI-generated datasets, the review process will remain robust but streamlined, freeing up human reviewers to focus on other critical aspects of the manuscript.  

Two things are clear. First, peer review cannot be sustained in its current state as AI increases science output. Second, as the volume of research grows, collaboration, as well as innovation, is essential to protect scientific discourse and the integrity of the scientific record. What does cross-publishing, cross-research cooperation look like, from the lab bench to publisher’s page and how do we drive it forward? Can we develop AI tools advanced enough to catch faulty big data before it enters the scientific record? How would a publisher-wide alert system (not dissimilar to cyber security alerts) work, to share intelligence that stops flawed data and analysis from spreading?

AI in science and publishing is in its early stages, but it is already a reality that needs to be addressed and further developed.  Together, we should provide an open path forward to the potential of AI in scientific innovation.  


About the author

Simone Ragavooloo

Simone Ragavooloo is an experienced Research Integrity expert and advisor for the Committee on Publication Ethics (COPE). Her work is focused on supporting publishers to form and implement policies that advance research integrity and elevate publication ethics standards. She is a vocal proponent of the critical role publishers play in shaping policy and influencing ethical conduct within the research community. Simone has held related positions at BMJ and Springer Nature and currently contributes her expertise at Frontiers as Research Integrity Portfolio Manager. 


domingo, 5 de enero de 2025

América Latina (y el Sur Global) no está bien representada en las bases de datos genómicos

Publicado en SciDevNet
https://www.scidev.net/america-latina/news/pocos-datos-genomicos-regionales-rezagan-la-medicina-de-precision/?utm_source=SciDev.Net&utm_medium=email&utm_campaign=14822554_2024-12-30%20Weekly%20Email%20Digest%20-%20Am%C3%A9rica%20Latina%20y%20el%20Caribe%20Template.%20For%20no%20topic%20preferences&dm_i=1SCG,8TP5M,665LFG,10PXIC,1



12/12/24

Pocos datos genómicos regionales rezagan la medicina de precisión

De un vistazo
  • Estudio regional identifica representación genómica regional en el mundo
  • Advierte que su baja participación genera disparidades en medicina de precisión global
  • Destacan la importancia de iniciativas nacionales

En una época en que la genómica se posiciona cada vez más como una herramienta valiosa para la medicina de precisión, la baja representación de quienes viven en América Latina en los estudios genéticos que se realizan en el mundo lleva a un aumento de las disparidades en la prevención y tratamiento de enfermedades.

Esa es una de las observaciones que se desprenden de los resultados del Proyecto sobre la Genética de la Diversidad Latinoamericana (GLAD, por sus siglas en inglés), un estudio publicado en la revista Cell Genomics que compila datos genómicos de 53.738 personas, tomados de 39 estudios que representan a 46 regiones.

El objetivo es “explorar los patrones estructurales de la población latinoamericana y apoyar estudios epidemiológicos”. Se trata de estadísticas resumidas, sin acceso a genotipos individualizados, lo cual reduce el riesgo de exposición de datos sensibles.

Según este trabajo, aunque América Latina representa 8,5 por ciento de la población global, los 656 millones de habitantes de la región solo son el 0,38 por ciento de quienes participan en estudios que posibilitan identificar genes asociados con una enfermedad.

En este tipo de proyectos, que parten desde un nivel tan básico como el estudio de la diversidad genética, muchas veces se ignora el potencial que tiene entender las diferencias y similitudes entre poblaciones”. Víctor Borda, Instituto de Ciencias Genómicas de la Universidad de Maryland, EE. UU.

La llamada medicina de precisión en estos años ha hecho posible localizar las variantes genéticas que predisponen a enfermedades cardíacas e inflamatorias, diabetes, Alzheimer, esquizofrenia o obesidad, por ejemplo, así como las que determinan respuestas diferenciales a los fármacos.

Estos avances han surgido a partir del desarrollo científico basado en los datos del Proyecto del Genoma Humano, que a principios de este siglo recopiló los primeros resultados de las características genéticas de las personas.

Sin embargo, tanto esa iniciativa como las bases de datos que le siguieron mostraron una variabilidad poblacional limitada porque han tenido una alta representación de población de países del Norte Global. Esto se convirtió en un sesgo que pone en cuestión la aplicación exitosa de la medicina genética en el sur porque sus particularidades no están reflejadas en esas bases.

Por ejemplo, entre otros resultados de GLAD, el estudio reafirmó la distribución de linajes heterogéneos en Latinoamérica, con grupos con mayor representación europea y africana (por ejemplo, en Brasil y en Estados Unidos) o de indígenas americanos (Perú, México, Guatemala), y subrayó la subrepresentación de esos datos genealógicos en las bases públicas.

Esto perjudica la comprensión integral sobre la diversidad étnica de la región, destacan los autores. “A pesar de que las diferencias genéticas entre una persona y otra solo corresponden a menos del uno por ciento del genoma”, recuerda Víctor Borda, uno de los autores del estudio. Esas distinciones “pueden tener implicancias importantes”, como la forma en que metabolizamos los fármacos.

“Nuestros sistemas de salud son vetustos”, agregó Hernán Dopazo, especialista en biología evolutiva e investigador del CONICET (Argentina), que no formó parte de la investigación. Los servicios de salud “deben autorizar una secuenciación genética para tratar una enfermedad, suelen evitarlo por motivos económicos, sin entender que ese procedimiento evitará gastos posteriores”.

“En algunos casos, acceder a ciertos datos genéticos puede tardar meses”, desatacó Borda, y esas demoras llevan al retraso de las investigaciones, algo “aún más evidente” en Latinoamérica.

Hacerse camino por los “laberintos burocráticos”, las bases de datos patentadas o los desafíos en torno al consentimiento sigue siendo problemático en nuestra región, advirtió el estudio.

Los autores esperan que esta plataforma, que también permite su vinculación con muestras externas, promueva la investigación genética en Latinoamérica y contribuya a que la medicina personalizada llegue a más personas.

Inclusión urgente

El estudio también llama la atención sobre la necesidad de una “inclusión urgente” de datos provenientes de Bolivia y Paraguay, déficit que atribuyen a la falta de financiamiento.

Borda pondera iniciativas públicas como el Proyecto Genoma Peruano, el Proyecto de Epidemiología Genética de Brasil o el Biobanco Mexicano.

Dopazo también destaca el programa argentino PoblAr —el cual asesora—, que busca generar un genoma de referencia como insumo fundamental para tratamientos personalizados, pero hoy se encuentra paralizado por el desfinanciamiento al sector científico en su país.

Los vaivenes en el apoyo a estas iniciativas representan “la principal barrera para la democratización de la ciencia”, plantea Borda. “En este tipo de proyectos, que parten desde un nivel tan básico como el estudio de la diversidad genética, muchas veces se ignora el potencial que tiene entender las diferencias y similitudes entre poblaciones”.

Nuestros países “tienen que entrar en este club”, remarcó Dopazo, para quien resulta fundamental consolidar las bases de datos sobre las particularidades de enfermedades en la región. “El cáncer de mama es mucho más frecuente en Latinoamérica”, ejemplificó. “Queremos conocer esos marcadores y saber por qué son diferentes”.

La representación de esta variabilidad solo podrá lograrse mediante iniciativas conjuntas, ya que la infraestructura necesaria comprende decenas de miles de muestras, algo que excede a un solo país.

Dopazo insiste en la importancia de un cambio de mentalidad, también a nivel local. Los financiadores públicos y privados de los sistemas de salud deberían entender que “estas plataformas ahorran dinero, sufrimiento y años de estudio” a millones de personas, en una región que necesita acoplarse, lo antes posible, a esta revolución de la medicina global.

Este artículo fue producido por la edición de América Latina y el Caribe de SciDev.Net

Los editores de Journal of Human Evolution dimiten en masa en protesta por los cambios de Elsevier

Publicado en Retraction Watch
https://retractionwatch.com/2024/12/27/evolution-journal-editors-resign-en-masse-to-protest-elsevier-changes/ 


Los editores de Journal of Human Evolution dimiten en masa en protesta por los cambios de Elsevier


Todos los miembros del consejo editorial de Journal of Human Evolution (JHE), una publicación de Elsevier, menos uno, han dimitido, afirmando que «las continuas acciones de Elsevier son fundamentalmente incompatibles con el espíritu de la revista e impiden mantener la calidad y la integridad fundamentales para el éxito de JHE». 


«Elsevier ha erosionado constantemente la infraestructura esencial para el éxito de la revista, socavando al mismo tiempo los principios básicos y las prácticas que han guiado con éxito la revista durante los últimos 38 años», dijeron los “editores en jefe conjuntos, todos los editores eméritos jubilados o activos en el campo, y todos menos un editor asociado” en su declaración de renuncia publicada ayer en X/Twitter.


Entre otras medidas, según el comunicado, Elsevier «eliminó el apoyo a un editor de textos y a un editor de números especiales», lo que interpretaron como que «los editores no deben prestar atención al lenguaje, la gramática, la legibilidad, la coherencia o la exactitud de la nomenclatura o el formato adecuados». Los editores dicen que el editor «con frecuencia introduce errores durante la producción que no estaban presentes en el manuscrito aceptado:» 


En otoño de 2023, por ejemplo, sin consultar ni informar a los editores, Elsevier inició el uso de IA durante la producción, creando pruebas de artículos desprovistas de mayúsculas en todos los nombres propios (por ejemplo, épocas formalmente reconocidas, nombres de sitios, países, ciudades, géneros, etc.), así como cursivas para géneros y especies. Estos cambios en la IA revirtieron las versiones aceptadas de trabajos que ya habían sido formateados correctamente por los editores encargados de su manipulación. Esto fue muy embarazoso para la revista y su resolución llevó seis meses y sólo se consiguió gracias a los persistentes esfuerzos de los editores. El procesamiento IA sigue utilizándose y reformatea regularmente los manuscritos enviados para cambiar el significado y el formato y requiere una amplia supervisión del autor y del editor durante la fase de pruebas.


Los editores que dimitieron también afirmaron que Elsevier «asumió unilateralmente el control total» de la «estructura y composición científica» del consejo editorial al exigir a todos los editores que firmaran un nuevo contrato cada año», lo que provocó una disminución del número de editores asociados. El editor también «indicó que ya no apoyaría el modelo de doble editor [en jefe] que ha sido un sello distintivo de JHE desde 1986», según la declaración. «Cuando los editores se opusieron vehementemente a esta acción, Elsevier dijo que apoyaría un modelo de doble editor reduciendo la tasa de compensación a la mitad».


Los editores también expresaron su preocupación por los gastos de procesamiento de artículos en la revista, de 3.990 dólares, que «siguen estando fuera del alcance de gran parte de nuestros autores» y son hasta el doble de los «de revistas publicadas por Elsevier comparables en cuanto a disciplina».


Los intentos de obtener comentarios de Elsevier y de conocer el nombre del editor asociado que no dimitió de los recientemente dimitidos editores jefe se encontraron con respuestas de vacaciones fuera de la oficina. Actualizaremos este post con todo lo que sepamos.


La dimisión masiva es el vigésimo episodio de este tipo desde principios de 2023, según nuestros registros. A principios de año, Nature se preguntaba: «¿qué se consigue con estas salidas en grupo?».


///////////////////////////////////

Evolution journal editors resign en masse to protest Elsevier changes


All but one member of the editorial board of the Journal of Human Evolution (JHE), an Elsevier title, have resigned, saying the “sustained actions of Elsevier are fundamentally incompatible with the ethos of the journal and preclude maintaining the quality and integrity fundamental to JHE’s success.” 

“Elsevier has steadily eroded the infrastructure essential to the success of the journal while simultaneously undermining the core principles and practices that have successfully guided the journal for the past 38 years,” the journal’s “joint Editors-in-Chief, all Emeritus Editors retired or active in the field, and all but one Associate Editor” said in their resignation statement posted to X/Twitter yesterday.  

Among other moves, according to the statement, Elsevier “eliminated support for a copy editor and special issues editor,” which they interpreted as saying “editors should not be paying attention to language, grammar, readability, consistency, or accuracy of proper nomenclature or formatting.” The editors say the publisher “frequently introduces errors during production that were not present in the accepted manuscript:”  

In fall of 2023, for example, without consulting or informing the editors, Elsevier initiated the use of AI during production, creating article proofs devoid of capitalization of all proper nouns (e.g., formally recognized epochs, site names, countries, cities, genera, etc.) as well italics for genera and species. These AI changes reversed the accepted versions of papers that had already been properly formatted by the handling editors. This was highly embarrassing for the journal and resolution took six months and was achieved only through the persistent efforts of the editors. AI processing continues to be used and regularly reformats submitted manuscripts to change meaning and formatting and require extensive author and editor oversight during proof stage. 

The resigning editors also said Elsevier “unilaterally took full control over” the editorial board’s “scientific structure and composition” by requiring all editors sign a new contract every year,” leading to a decline in the number of associate editors. The publisher also “indicated it would no longer support the dual-editor [in chief] model that has been a hallmark of JHE since 1986,” according to the statement. “When the editors vehemently opposed this action, Elsevier said it would support a dual-editor model by cutting the compensation rate by half.”

Editors also raised concerns about article processing charges at the journal of $3,990 that “remain out of reach for much of our authorship” and are as much as twice those “of discipline-comparable Elsevier-published journals.”

Attempts to seek comment from Elsevier and to learn the name of the associate editor who did not resign from the recently resigned editors in chief were met with holiday out-of-office replies. We will update this post with anything we learn.

The mass resignation is the 20th such episode since early 2023, according to our records. Earlier this year, Nature asked, “what do these group exits achieve?”

viernes, 3 de enero de 2025

MÉXICO: inicia la nueva Secretaria de Ciencia y Tecnología (Secihti), que sustituye al Conahcyt

Publicado en La Jornada
https://www.jornada.com.mx/noticia/2025/01/03/politica/ciencia-y-tecnologia-al-centro-del-plan-sexenal-9964



Ciencia y tecnología, al centro del plan sexenal

Alexia Villaseñor

03 de enero de 2025 

Con el objetivo de colocar los trabajos científicos y tecnológicos al centro del proyecto social de este gobierno, la flamante Secretaría de Ciencia, Humanidades, Tecnología e Innovación (Secihti) comienza operaciones con una estructura distinta al órgano que sustituyó, el Consejo Nacional de Humanidades, Ciencias y Tecnologías (Conahcyt).

La Secihti remplazará al consejo que estuvo a cargo de la investigación y desarrollo de la ciencia por más de 50 años.

La secretaría está encabezada por la doctora Rosaura Ruiz Gutiérrez y tendrá dos subsecretarías, una de Ciencia y Humanidades, que tendrá como funciones principales incentivar la formación y consolidación de la comunidad de ciencias, humanidades, tecnologías e innovación; fortalecer la investigación, y promover en la sociedad general las vocaciones y aprecio por el quehacer científico y humanístico.

Estará a cargo de Violeta Vázquez-Rojas Maldonado, doctora en lingüística, cuyas líneas de investigación son la semántica, sintaxis de la frase nominal y lingüística descriptiva. Ha dado clases en El Colegio de México y fue codirectora de la revista Cuadernos de Lingüística de esa misma institución.

La otra subsecretaría es de Tecnología e Innovación, cuyas funciones se centrarán en establecer, coordinar y apoyar la ejecución de estrategias para garantizar que toda persona goce de los beneficios de la ciencia aplicada y el desarrollo, transferencia e innovación de base científica y tecnológica.

Estará a cargo de Juan Luis Díaz de León Santiago, doctor en ciencias de la morfología matemática. Ha dado clases en el Instituto Politécnico Nacional y fue director general de ciencia, divulgación y transferencia de conocimiento en la Secretaría de Ciencia, Tecnología e Innovación de la Ciudad de México.

Ambas dependencias ejecutarán proyectos estratégicos en temas de semiconductores, transición energética y electromovilidad; observación satelital de la Tierra y monitoreo de corrientes oceánicas para el establecimiento de sistemas de alerta temprana, entre otros.

También aquellos que tengan que ver con la restauración y remediación ambiental especialmente de las cuencas con altos índices de contaminantes como Lerma-Santiago, Tula y Atoyac; la investigación para la prevención, control y tratamiento de enfermedades de mayor prevalencia.

La nueva secretaría nació tras su aprobación por Congreso de la Unión y con el decreto por el que se reforman, adicionan y derogan disposiciones de la Ley Orgánica de la Administración Pública Federal, publicada en el Diario Oficial de la Federación el pasado 28 de noviembre.

Coordinará la Universidad Nacional Rosario Castellanos y la Universidad de la Salud, que se suman a otros 25 centros públicos que estaban desde que era Conahcyt. Seguirá con los apoyos del Sistema Nacional de Investigadoras e Investigadores (SNII) y becas nacionales y en el extranjero.

Su sede será el edificio ubicado en avenida de los Insurgentes Sur 1582, antes ocupada por el Conahcyt.



2025: Año Internacional de Ciencia y Tecnología Cuántica

Publicado en Infobae
https://www.infobae.com/mexico/2025/01/03/investigadora-de-la-unam-explica-por-que-2025-es-el-ano-internacional-de-ciencia-y-tecnologia-cuantica/




Investigadora de la UNAM explica por qué 2025 es el Año Internacional de Ciencia y Tecnología Cuántica

Ana María Cetto lideró una iniciativa que diferentes organizaciones internacionales respaldaron gracias a que fortalece distintas áreas relevantes para la sociedad

Por Fabián Sosa

03 Ene, 2025

La Asamblea General de Naciones Unidas declaró que el 2025 se conmemorará de manera internacional la ciencia y tecnología cuántica debido al impacto que ambas tienen en la vida diaria.

De acuerdo con Ciencia UNAM, las posibles aplicaciones de estas disciplinas “pueden conducir a soluciones para los graves problemas de la actualidad relacionados con la salud, el cambio climático, las comunicaciones, el agua limpia y la energía”. 

Ana María Cetto y el embajador Ismael Madrigal destacan que es importante la mecánica cuántica debido a que “ha contribuido a un mejor entendimiento del comportamiento de la materia y la energía a escalas atómicas y subatómicas”.

La propuesta internacional de Ana María Cetto

Según el artículo El largo camino hacia la declaración de 2025 como el Año Internacional de la Ciencia y la Tecnología Cuántica, la doctora Ana María Cetto, investigadora del Instituto de Física de la Universidad Nacional Autónoma de México (UNAM), quien participó en la conformación y presentación de la propuesta del Año Internacional de la Ciencia y Tecnología Cuántica, el trabajo consistía en “apoyar esta iniciativa y conducirla por el camino necesario para que fuera adoptada por la Conferencia General de la UNESCO para que llegara a las Naciones Unidas”, explicó la universitaria.

Ciencia UNAM señala que al principio el equipo estaba conformado por cuatro personas, incluida la doctora Cetto y menciona que su participación fue importante debido a que anteriormente había participado en la organización del Año Internacional de la Luz, por lo que su experiencia jugó un papel fundamental.

Posteriormente, colaboró con el embajador Juan José Bremer, quien es representante permanente de la Delegación de México ante la UNESCO y quien brindó apoyo total a la iniciativa, por lo que a partir de ese momento se organizaron reuniones informativas con el respaldo de la comunidad de física internacional.

Luego de explicar a los demás delegados la importancia de la mecánica cuántica y mencionar qué relación tiene el ser humano con ella, la manera en la que forma parte de la vida diaria y cómo puede contribuir a mejorar la ciencia, tecnología y economía de los países, señaló que “se contó con una aprobación prácticamente total con la recomendación de que la UNESCO llevara el asunto a la consideración de la Asamblea General de las Naciones Unidas”.

Finalmente, la iniciativa fue presentada ante las Naciones Unidas por el embajador de Ghana y la doctora Cetto, quien además es profesora de la Facultad de Ciencias de la UNAM, destacó que el convencimiento de los diplomáticos y sus gobiernos, fue que tanto la ciencia como la tecnología cuánticas tienen mucho que ver con nuestra vida diaria.

“La ciencia y la tecnología cuánticas están en todos los ámbitos de la vida de la sociedad humana, del desarrollo tecnológico y del sistema productivo, lo cual tiene un impacto muy positivo en nuestras economías”, explicó Cetto.

Con esto también mencionó que es una oportunidad para generar capacidades propias de fabricación científica y desarrollo tecnológico, pues el tema llama mucho la atención de los países debido a que “si nos quedamos fuera seguiremos dependiendo de las tecnologías de otros”, puntualizó la investigadora de la UNAM.

Después de un arduo trabajo, el 7 de junio de 2024 se proclamó el Año Internacional de la Ciencia y Tecnología Cuántica por parte de la Asamblea General de las Naciones Unidas y a partir de ese momento comenzaron a formarse distintos comités que debían atender desde la planeación y organización de la ceremonia de inauguración hasta la vinculación del sector productivo con las universidades, centros de investigación y con financiadores de eventos nacionales e internacionales.

Su relación con la producción y la educación

Ana María Cetto, quien en 2023 recibió el 
Premio Kalinga de la UNESCO en reconocimiento a su labor como divulgadora de la ciencia, explica que en México se investiga mucho respecto a la física cuántica en múltiples universidades y centros públicos de investigación.

“A veces la gente hace investigación relacionada con la física cuántica sin darse cuenta de ello y este año internacional también va a brindar la oportunidad de conocernos más y saber qué se está haciendo en las diversas instituciones y cómo podemos trabajar juntos”, afirmó.

Con esto también destacó que es necesario que los científicos que trabajan con la ciencia cuántica interactúen con otros sectores de la sociedad que quizá se están beneficiando de estas aplicaciones aún sin saberlo.

“Estoy convencida de que nuestro sistema productivo necesita un impulso y que para acercarnos a la soberanía y la independencia tecnológica es necesario que se aprovechen los productos de estas investigaciones y que sean nichos para una investigación y desarrollo tecnológico propio”.

Además, considera que es necesario establecer diálogos significativos con el sistema educativo, pues en México y otros países existe la preocupación de que el contacto con la ciencia y lo que ésta significa, sobre todo a nivel primaria y secundaria, es reducido.

jueves, 2 de enero de 2025

(VIDEO) La hacker que declaró la guerra a las editoriales científicas. Caso de Alexandra Elbakyan y Sci-Hub

 https://www.youtube.com/watch?v=OJeP3i1pVdA

VIDEO: LA HACKER que DECLARÓ la GUERRA a las EDITORIALES CIENTÍFICAS | CASO de ALEXANDRA ELBAKYAN y SCI-HUB



Alexandra Elbakyan creó Sci-Hub en 2011 para liberar el conocimiento científico, enfrentándose a editoriales y gobiernos. Su plataforma desafió los muros de pago, ofreciendo artículos gratuitos a millones de usuarios. Aunque perseguida legalmente, sigue luchando por la democratización de la ciencia. -----------------------------------------------------------------------------------
0:00
Introducción
00:39
Capitulo 1: Los inicios de Alexandra Elbakyan
05:54
Capitulo 2: El desafío de las editoriales
12:08
Capitulo 3: El precio de la rebelión
16:20
Epílogo


"¡Quemadlo con fuego!" - El uso de ChatGPT «polariza» a los revisores

Publicado en THE Times Higher Education https://www.timeshighereducation.com/news/corrupting-chatgpt-use-polarises-peer-reviewers   Quemadlo...