Mostrando entradas con la etiqueta Seguridad. Mostrar todas las entradas
Mostrando entradas con la etiqueta Seguridad. Mostrar todas las entradas

jueves, 26 de mayo de 2022

La ciencia abierta es buena para la investigación, pero mala para la seguridad

Publicado en Wired
https://www.wired.com/story/making-science-more-open-good-research-bad-security/ 

Hacer la ciencia más abierta es bueno para la investigación, pero malo para la seguridad

El movimiento de la ciencia abierta aboga por hacer que el conocimiento científico sea rápidamente accesible para todos. Pero un nuevo artículo advierte que la rapidez puede tener un coste.

DURANTE DÉCADAS, el conocimiento científico ha estado firmemente encerrado tras la cerradura y la llave de los muros de pago de las revistas, que resultan tremendamente caros. Sin embargo, en los últimos años se ha producido un cambio de tendencia contra las rígidas y anticuadas barreras de la publicación académica tradicional. El movimiento de la ciencia abierta ha cobrado impulso para hacer que la ciencia sea accesible y transparente para todos.

Cada vez son más las revistas que publican investigaciones que pueden ser leídas por cualquiera, y los científicos comparten sus datos entre sí. El movimiento de la ciencia abierta también ha supuesto el auge de los servidores de  preprint: repositorios en los que los científicos pueden publicar sus manuscritos antes de que pasen por una rigurosa revisión por parte de otros investigadores y se publiquen en las revistas. Los científicos ya no tienen que pasar por el proceso de revisión por pares antes de que su investigación esté ampliamente disponible: Pueden enviar un artículo a bioRxiv y publicarlo en línea al día siguiente. 

Sin embargo, un nuevo artículo publicado en la revista PLoS Biology sostiene que, aunque el movimiento de la ciencia abierta es en general positivo, no está exento de riesgos.  

Aunque la velocidad de la publicación en acceso abierto significa que la investigación importante se publica más rápidamente, también significa que los controles necesarios para garantizar que la ciencia considerada como arriesgada no se está lanzando en línea son menos meticulosos. En particular, el campo de la biología sintética -que implica la ingeniería de nuevos organismos o la reingeniería de organismos existentes para que tengan nuevas habilidades- se enfrenta a lo que se denomina un dilema de doble uso: aunque la investigación que se publica rápidamente puede utilizarse para el bien de la sociedad, también podría ser cooptada por actores malintencionados para llevar a cabo la guerra biológica o el bioterrorismo. También podría aumentar la posibilidad de una liberación accidental de un patógeno peligroso si, por ejemplo, alguien sin experiencia pudiera hacerse fácilmente con una guía de cómo diseñar un virus. "Existe el riesgo de que se compartan cosas malas", afirma James Smith, coautor del artículo e investigador de la Universidad de Oxford. "Y en realidad no hay procesos en marcha en este momento para abordarlo".

Aunque el riesgo de la investigación de doble uso es un problema antiguo, "la ciencia abierta plantea retos nuevos y diferentes", afirma Gigi Gronvall, experta en bioseguridad e investigadora principal del Centro Johns Hopkins para la Seguridad Sanitaria. "Estos riesgos siempre han estado ahí, pero con los avances tecnológicos se magnifican".

Para ser claros, esto todavía no ha ocurrido. Ningún virus peligroso u otro patógeno se ha replicado o creado a partir de las instrucciones de un preprint. Pero dado que las consecuencias potenciales de que esto ocurra son tan catastróficas -como el desencadenamiento de otra pandemia-, los autores del artículo sostienen que no merece la pena asumir ni siquiera un pequeño aumento del riesgo. Y el momento de reflexionar profundamente sobre estos riesgos es ahora. 

Durante la pandemia, la necesidad de los servidores de  preprint se puso de manifiesto: las investigaciones cruciales pudieron difundirse mucho más rápidamente que la tradicionalmente lenta vía de las revistas. Pero eso también significa que "ahora hay más gente que nunca que sabe cómo sintetizar virus en los laboratorios", afirma Jonas Sandbrink, investigador de bioseguridad del Instituto del Futuro de la Humanidad de la Universidad de Oxford y otro coautor del artículo. 

Por supuesto, el hecho de que la investigación se publique en una revista en lugar de en un servidor de  preprints no significa que esté intrínsecamente libre de riesgos. Pero sí significa que es más probable que cualquier peligro evidente sea detectado en el proceso de revisión. "La diferencia clave, en realidad, entre las revistas y el servidor de  preprint es el nivel de profundidad de la revisión, y el proceso de publicación de la revista puede ser más propenso a identificar los riesgos", dice Smith. 

Los riesgos de la publicación abierta no se limitan a la investigación biológica. En el campo de la IA, un movimiento similar hacia el intercambio abierto de código y datos significa que hay un potencial de mal uso. En noviembre de 2019, OpenAI anunció que no publicaría abiertamente en su totalidad su nuevo modelo de lenguaje GPT-2, que puede generar texto y responder preguntas de forma independiente, por temor a "aplicaciones maliciosas de la tecnología", es decir, su potencial para difundir noticias falsas y desinformación. En su lugar, OpenAI publicaría una versión mucho más reducida del modelo para que los investigadores pudieran probarlo, una decisión que suscitó críticas en su momento. (Su sucesor, el GPT-3, publicado en 2020, resultó ser capaz de escribir pornografía infantil. 

Dos de los mayores servidores de preimpresión, medRxiv, fundado en 2019 para publicar investigaciones médicas, y bioRxiv, fundado en 2013 para investigaciones biológicas, declaran públicamente en sus sitios web que comprueban que no se publique en ellos "investigación de doble uso preocupante". "Todos los manuscritos se examinan en el momento de su presentación para comprobar si hay plagio, contenido no científico, tipos de artículos inapropiados y material que pueda poner en peligro la salud de pacientes individuales o del público", se lee en una declaración de medRxiv. "Esto último puede incluir, pero no se limita a, estudios que describan investigaciones de doble uso y trabajos que desafíen o puedan comprometer las medidas de salud pública aceptadas y los consejos relativos a la transmisión de enfermedades infecciosas, la inmunización y la terapia".

Desde el inicio de bioRxiv, los riesgos de bioseguridad fueron siempre una preocupación, dice Richard Sever, uno de los cofundadores de bioRxiv y director adjunto de Cold Spring Harbor Laboratory Press. (Sever fue uno de los revisores del artículo de Smith y Sandbrink). Bromea diciendo que en los primeros días de arXiv, un servidor de preprints para las ciencias físicas lanzado en 1991, había preocupaciones por las armas nucleares; con bioRxiv hoy las preocupaciones son por las armas biológicas.

Sever calcula que bioRxiv y medRxiv reciben unos 200 envíos al día, y cada uno de ellos es examinado por más de un par de ojos. Reciben "un montón de basura" que se descarta de inmediato, pero el resto de las propuestas pasan a un grupo para ser examinadas por científicos en activo. Si alguien en ese proceso de selección inicial señala un artículo que puede plantear problemas, se pasa a la cadena para que lo considere el equipo de gestión antes de que se tome una decisión final. "Siempre intentamos pecar de precavidos", dice Sever. Hasta ahora no se ha publicado nada que haya resultado peligroso, considera. 

Dos de los mayores servidores de preprints, medRxiv, fundado en 2019 para publicar investigaciones médicas, y bioRxiv, fundado en 2013 para investigaciones biológicas, declaran públicamente en sus sitios web que comprueban que no se publique en ellos "investigación de doble uso preocupante". "Todos los manuscritos se examinan en el momento de su presentación para comprobar si hay plagio, contenido no científico, tipos de artículos inapropiados y material que pueda poner en peligro la salud de pacientes individuales o del público", se lee en una declaración de medRxiv. "Esto último puede incluir, pero no se limita a, estudios que describan investigaciones de doble uso y trabajos que desafíen o puedan comprometer las medidas de salud pública aceptadas y los consejos relativos a la transmisión de enfermedades infecciosas, la inmunización y la terapia".

Desde el inicio de bioRxiv, los riesgos de bioseguridad fueron siempre una preocupación, dice Richard Sever, uno de los cofundadores de bioRxiv y director adjunto de Cold Spring Harbor Laboratory Press. (Sever fue uno de los revisores del artículo de Smith y Sandbrink). Bromea diciendo que en los primeros días de arXiv, un servidor de preimpresión para las ciencias físicas lanzado en 1991, había preocupaciones por las armas nucleares; con bioRxiv hoy las preocupaciones son por las armas biológicas.

Sever calcula que bioRxiv y medRxiv reciben unos 200 envíos al día, y cada uno de ellos es examinado por más de un par de ojos. Reciben "un montón de basura" que se descarta de inmediato, pero el resto de las propuestas pasan a un grupo para ser examinadas por científicos en activo. Si alguien en ese proceso de selección inicial señala un artículo que puede plantear problemas, se pasa a la cadena para que lo considere el equipo de gestión antes de que se tome una decisión final. "Siempre intentamos pecar de precavidos", dice Sever. Hasta ahora no se ha publicado nada que haya resultado peligroso, considera. 

En su artículo, Smith y Sandbrink hacen recomendaciones para protegerse de posibles riesgos de bioseguridad. Por ejemplo, cuando los investigadores publiquen datos y códigos en repositorios, se les podría exigir que declaren que esos datos no son peligrosos, aunque reconocen que esto requiere un nivel de honestidad que no se esperaría de los malintencionados. Pero es un paso fácil que podría aplicarse de inmediato. 

A más largo plazo, recomiendan seguir el modelo que se ha utilizado para compartir datos de pacientes, como en los ensayos clínicos. En esa situación, los datos se almacenan en repositorios que requieren algún tipo de acuerdo de acceso para poder entrar. Para algunos de estos datos, los propios investigadores no llegan a verlos, sino que se envían a un servidor que analiza los datos lejos de los investigadores y luego devuelve los resultados. 

Por último, abogan por el prerregistro de la investigación, que ya es un pilar de la ciencia abierta. En pocas palabras, el prerregistro significa escribir lo que se pretende hacer antes de hacerlo, y mantener un registro de ello para demostrar que realmente se ha hecho. Smith y Sandbrink dicen que podría ofrecer una oportunidad para que los expertos en bioseguridad evalúen la investigación potencialmente arriesgada antes de que se lleve a cabo y den consejos sobre cómo mantenerla segura. 

Pero es un acto de equilibrio difícil de lograr, admite Sandbrink, al evitar la sobreburocratización del proceso. "El reto será decir cómo podemos hacer las cosas tan abiertas como sea posible y tan cerradas como sea necesario, garantizando al mismo tiempo la equidad y asegurando que no sean sólo los investigadores de Oxford y Cambridge los que puedan acceder a estos materiales". Habrá personas en todo el mundo cuyas credenciales pueden ser menos claras, dice Sandbrink, pero que siguen siendo investigadores legítimos y bien intencionados.

Y sería ingenuo pretender que un muro de pago o la suscripción a una revista es lo que impide a los actores nefastos. "La gente que quiere hacer daño probablemente lo hará", dice Gabrielle Samuel, una científica social del King's College de Londres cuya investigación explora las implicaciones éticas de los grandes datos y la IA. "Incluso si tenemos procesos de gobernanza realmente buenos, eso no significa que no se produzca un mal uso. Lo único que podemos hacer es intentar mitigarlo". 

Samuel cree que la mitigación de la ciencia de riesgo no empieza ni termina en la fase de publicación. El verdadero problema es que no hay incentivos para que los investigadores lleven a cabo una investigación responsable; el modo en que las revistas científicas y los organismos de financiación tienden a favorecer la investigación nueva y emocionante significa que el material más aburrido y seguro no recibe el mismo apoyo. Y la naturaleza de rueda de hámster del mundo académico hace que los científicos "simplemente no tengan la capacidad o la posibilidad de disponer de tiempo para pensar en estas cuestiones".

"No estamos diciendo que queramos que la investigación vuelva a un modelo de estar detrás de muros de pago, y que sólo sea accesible para muy pocos individuos que son lo suficientemente privilegiados como para poder permitirse el acceso a esas cosas", dice Smith. Pero ha llegado el momento de que la ciencia abierta se haga cargo de sus riesgos, antes de que ocurra lo peor. "Una vez que algo está disponible públicamente, de forma completa y abierta, es un estado bastante irreversible".

………………………

SCIENCE

APR 22, 2022 

Making Science More Open Is Good for Research—but Bad for Security

The open science movement pushes for making scientific knowledge quickly accessible to all. But a new paper warns that speed can come at a cost.


FOR DECADES, SCIENTIFIC knowledge has been firmly shut behind the lock and key of eye-wateringly expensive journal paywalls. But in recent years a tide has been turning against the rigid, antiquated barriers of traditional academic publishing. The open science movement has gained momentum in making science accessible and transparent to all.

Increasingly journals have published research that’s free for anyone to read, and scientists have shared their data among each other. The open science movement has also entailed the rise of preprint servers: repositories where scientists can post manuscripts before they go through a rigorous review by other researchers and are published in journals. No longer do scientists have to wade through the slog of the peer-review process before their research is widely available: They can submit a paper on bioRxiv and have it appear online the next day. 

But a new paper in the journal PLoS Biology argues that, while the swell of the open science movement is on the whole a good thing, it isn’t without risks. 

Though the speed of open-access publishing means important research gets out more quickly, it also means the checks required to ensure that risky science isn’t being tossed online are less meticulous. In particular, the field of synthetic biology—which involves the engineering of new organisms or the reengineering of existing organisms to have new abilities—faces what is called a dual-use dilemma: that while quickly released research may be used for the good of society, it could also be co-opted by bad actors to conduct biowarfare or bioterrorism. It also could increase the potential for an accidental release of a dangerous pathogen if, for example, someone inexperienced were able to easily get their hands on a how-to guide for designing a virus. “There is a risk that bad things are going to be shared,” says James Smith, a coauthor on the paper and a researcher at the University of Oxford. “And there’s not really processes in place at the moment to address it.”

While the risk of dual-use research is an age-old problem, “open science poses new and different challenges,” says Gigi Gronvall, a biosecurity expert and senior scholar at the Johns Hopkins Center for Health Security. “These risks have always been there, but with the advances in technology, it magnifies them.”

To be clear, this has yet to happen. No dangerous virus or other pathogen has been replicated or created from instructions in a preprint. But given that the potential consequences of this happening are so catastrophic—like triggering another pandemic—the paper’s authors argue that even small increases in risk are not worth taking. And the time to be thinking deeply about these risks is now. 

During the pandemic, the need for preprint servers was thrown into sharp relief—crucial research could be disseminated far more quickly than the traditionally sluggish journal route. But with that, it also means that “more people than ever know now how to synthesize viruses in laboratories,” says Jonas Sandbrink, a biosecurity researcher at the Future of Humanity Institute at the University of Oxford and the other coauthor of the paper. 

Of course, just because research is published in a journal instead of a preprint server doesn’t mean it’s inherently risk-free. But it does mean that any glaring dangers are more likely to be picked up in the reviewing process. “The key difference, really, between journals and the preprint server is the level of depth that the review is going into, and the journal publication process may be more likely to identify risks,” says Smith. 

The risks of open publishing don’t stop at biological research. In the AI field a similar movement toward openly sharing code and data means there’s potential for misuse. In November 2019, OpenAI announced it would not be openly publishing in full its new language model GPT-2, which can independently generate text and answer questions, for fear of “malicious applications of the technology”—meaning its potential to spread fake news and disinformation. Instead, OpenAI would publish a much smaller version of the model for researchers to tinker with, a decision that drew criticism at the time. (It went on to publish the full model in November of that year.) Its successor, GPT-3, published in 2020, was found to be capable of writing child porn.  

Two of the biggest preprint servers, medRxiv, founded in 2019 to publish medical research, and bioRxiv, founded in 2013 for biological research, publicly state on their websites that they check that “dual-use research of concern” is not being posted on their sites. “All manuscripts are screened on submission for plagiarism, non-scientific content, inappropriate article types, and material that could potentially endanger the health of individual patients or the public,” a statement on medRxiv reads. “The latter may include, but is not limited to, studies describing dual-use research and work that challenges or could compromise accepted public health measures and advice regarding infectious disease transmission, immunization, and therapy.”

From bioRxiv’s outset, biosecurity risks were always a concern, says Richard Sever, one of bioRxiv’s cofounders and assistant director of Cold Spring Harbor Laboratory Press. (Sever was a peer reviewer of Smith and Sandbrink’s paper.) He jokes that in the early days of arXiv, a preprint server for the physical sciences launched in 1991, there were worries about nuclear weapons; with bioRxiv today the worries are about bioweapons. 

Sever estimates bioRxiv and medRxiv get about 200 submissions a day, and every one of them is looked at by more than one pair of eyes. They get “a lot of crap” that is immediately tossed out, but the rest of the submissions go into a pool to be screened by practicing scientists. If someone in that initial screening process flags a paper that may pose a concern, it gets passed up the chain to be considered by the management team before a final call is made. “We always try to err on the side of caution,” Sever says. So far nothing has been posted that turned out to be dangerous, he reckons. 

A few papers have been turned away over the years because the team thought they fell into the category of dual-use research of concern. When the pandemic arrived, the issue became all the more urgent. The two servers published more than 15,000 preprints on Covid-19 by April 2021. It became an internal wrangle: Do the high life-or-death stakes of a pandemic mean they are morally required to publish papers on what they call “pathogens of pandemic potential”—like Sars-CoV-2—which they might have traditionally turned away in the past? “The risk-benefit calculation changes,” Sever says. 

But while bioRxiv and medRxiv have taken steps to deeply consider whether their output may pose a biosecurity risk or compromise public health advice, other servers and repositories may not be as fastidious. “Data and code repositories are pretty much fully open—anyone can post whatever they want,” Smith says. And Sever makes the point that if they do turn away a paper, it doesn’t mean it can’t end up online elsewhere. “It just means they can’t put it online with us.” 

In their paper, Smith and Sandbrink make recommendations to safeguard against potential biosecurity risks. For instance, when researchers post data and code in repositories, they could be required to make a declaration that that data isn’t risky—though they acknowledge that this requires a level of honesty one wouldn't expect from bad actors. But it is an easy step that could be implemented right away. 

On a longer timescale, they recommend following the model that’s been used in the sharing of patient data, such as in clinical trials. In that situation, data is stored in repositories that require some form of access agreement in order to gain entry. For some of this data, the researchers themselves don’t actually ever get to see it; instead it gets submitted to a server that analyzes the data away from the researchers and then sends back the results. 

Finally they advocate for preregistering your research, already a pillar of open science. Put simply, preregistration means writing down what you intend to do before you do it, and keeping a record of that to prove that you actually did it. Smith and Sandbrink say it could offer an opportunity for biosecurity experts to assess potentially risky research before it even happens and give advice on how to keep it secure. 

But it’s a tough balancing act to achieve, Sandbrink admits, in avoiding over-bureaucratizing the process. “The challenge will be to say, how can we make things as open as possible and as closed as necessary, whilst also ensuring equity and ensuring that it’s not just the researchers at Oxford and Cambridge that can access these materials.” There will be people around the globe whose credentials might be less clear, Sandbrink says, but who are still legitimate and well-intentioned researchers.

And it would be naive to pretend that a paywall or journal subscription is what impedes nefarious actors. “People who want to do harm will probably do harm,” says Gabrielle Samuel, a social scientist at King’s College London whose research explores the ethical implications of big data and AI. “Even if we have really good governance processes in place, that doesn’t mean that misuse won’t happen. All we can do is try to mitigate it.” 

Samuel thinks mitigating risky science doesn’t begin and end at the publishing stage. The real issue is that there’s no incentive for researchers to carry out responsible research; the way scientific journals and funding bodies have a tendency to favor new, exciting research means the more boring, safer stuff doesn’t get the same support. And the hamster-wheel nature of academia means scientists “just don’t have the capacity or chance of being able to have the time to think through these issues.”

“We’re not saying that we want research to go back to a model of being behind paywalls, and only being accessible to very few individuals who are privileged enough to be able to afford access to those things,” Smith says. But it’s time for open science to be reckoning with its risks, before the worst happens. “Once something is publicly available, fully, openly—that is a pretty irreversible state.”


miércoles, 13 de octubre de 2021

[Ciencia y geopolítica] USA: Ciencia abierta a debate en el Congreso

 

Publicado en Association of American Medical Colleges  - AAMC
https://www.aamc.org/advocacy-policy/washington-highlights/house-committee-holds-hearing-balancing-open-science-and-research-security 


La Comisión de la Cámara de Representantes celebra una audiencia sobre el equilibrio entre la ciencia abierta y la seguridad de la investigación

8 de octubre de 2021


CONTACTOS

Christa Wagner, analista legislativa principal

chwagner@aamc.org

202-828-0595


Los Subcomités de Ciencia, Espacio y Tecnología de la Cámara de Representantes sobre Investigaciones y Supervisión e Investigación y Tecnología celebraron una audiencia el 5 de octubre (an Oct. 5 hearing) en la que participaron investigadores y funcionarios de la administración que testificaron sobre la seguridad de la investigación en la empresa de investigación financiada por el gobierno federal.


Los miembros del subcomité y los testigos hicieron hincapié en la importancia de lograr un equilibrio adecuado para mantener la investigación abierta y, al mismo tiempo, abordar la influencia de los gobiernos extranjeros en dicha investigación.


"La apertura en la ciencia permite la reproducción y la réplica del trabajo, aumentando la fiabilidad de las conclusiones y construyendo la confianza del público", declaró el presidente de la Subcomisión de Investigaciones y Supervisión, Bill Foster (demócrata de Illinois), en su declaración de apertura. Añadió que la apertura conlleva riesgos, pero que "no debemos dejar que la solución sea peor que el problema".


El miembro de rango Jay Obernolte (republicano de California) añadió que el Congreso debe ser "administrador de los casi 45.000 millones de dólares que invertimos cada año en investigación en las instituciones académicas".


Los miembros del subcomité preguntaron por las repercusiones negativas que tendría para el personal investigador el empleo de medidas de mitigación demasiado restrictivas.


La catedrática de física de la Universidad de Temple Laura H. Carnell, Xiaoxing Xi, una científica chino-estadounidense que fue acusada falsamente de espionaje por el FBI, instó a los miembros a no reprimir la investigación abierta ni adoptar políticas dirigidas exclusivamente a los científicos chinos. Añadió que tal política "no protege la seguridad de la investigación de Estados Unidos. Hace que Estados Unidos sea menos competitivo en innovación y menos atractivo para los talentos de todo el mundo".


La vicepresidenta de investigación del Instituto Tecnológico de Massachusetts, Maria Zuber, añadió: "La competitividad de Estados Unidos depende menos de las medidas defensivas que de lo que hagamos para reforzar nuestras propias capacidades. El Congreso debería aumentar la financiación de la investigación y canalizar parte de ella a través de iniciativas como la ARPA-H [Agencia de Proyectos de Investigación Avanzada para la Salud ( Washington Highlights, Dec. 12, 2019)] y la nueva Dirección de la Fundación Nacional de la Ciencia. El núcleo de la estrategia estadounidense debe ser mirar hacia adelante e invertir en nuestro futuro".


El presidente del Subcomité de Investigación y Tecnología, Haley Stevens (D-Mich.) y el miembro de rango Michael Waltz (R-Fla.) reiteraron el trabajo continuo del comité para lograr un equilibrio entre la ciencia abierta y la seguridad mejorada, citando una disposición apoyada por la AAMC en la Ley de Autorización de Defensa Nacional para el Año Fiscal 2020 que estableció la Comisión Conjunta interinstitucional sobre el Entorno de Investigación (JCORE) [consulte Washington Highlights, 12 de diciembre de 2019].


Zuber, que también se desempeña como copresidente del Consejo de Asesores del Presidente sobre Ciencia y Tecnología, testificó que la Casa Blanca está preparando una guía para implementar el Memorando Presidencial de Seguridad Nacional 33 (NSPM-33), un producto de JCORE destinado a abordar aún más la seguridad de la investigación financiada por el gobierno federal [consulte Washington Highlights, 13 de agosto (Washington Highlights, Aug. 13)]. El 30 de septiembre, la AAMC se unió a cuatro asociaciones (the AAMC joined four association) para proporcionar comentarios de las partes interesadas al Director de la Oficina de Política Científica y Tecnológica, Eric Lander, PhD, para su consideración en la finalización de la orientación NSPM-33.


Candice Wright, directora de ciencia, evaluación tecnológica y análisis de la Oficina de Rendición de Cuentas del Gobierno, señaló en su discurso de apertura que, aunque las agencias de investigación como la Fundación Nacional de la Ciencia (NSF) y los Institutos Nacionales de la Salud tienen políticas de conflicto de intereses en toda la agencia, no abordan ni definen plenamente los conflictos de compromiso. Además de abordar mejor los conflictos de compromiso, Wright testificó que las agencias federales de investigación deben participar más en la educación de la comunidad universitaria sobre los programas de talento extranjero.


Zuber hizo hincapié en la confusión que existe entre los solicitantes en cuanto a la información que hay que revelar y cómo hacerlo en las solicitudes que se presentan a las distintas agencias. Añadió que las universidades están dando un paso adelante para abordar la seguridad en la investigación educando al profesorado y ofreciendo oportunidades de formación en el campus, al tiempo que se comprometen de forma proactiva con las agencias federales de la ciencia y las fuerzas del orden. Zuber añadió que, aunque la relación con los organismos encargados de hacer cumplir la ley es importante, "las universidades no están preparadas para ser organizaciones de investigación". 


Varios miembros y testigos coincidieron en que una mejor comprensión de las diferencias culturales entre las fuerzas del orden y el mundo académico sería beneficiosa para la comunicación entre ambos. La inspectora general de la NSF, Allison Lerner, añadió que los inspectores generales de los organismos tienen un importante papel que desempeñar para salvar esa brecha de comunicación.


Lerner también declaró que su oficina carece de personal suficiente para el volumen actual de casos que hay que investigar. En el interrogatorio, añadió que la Ley de la Fundación Nacional de la Ciencia para el Futuro (H.R. 2225) aumentaría el presupuesto de su oficina en 50 millones de dólares [véase Washington Highlights, June 1].


***************************

House Committee Holds Hearing on Balancing Open Science and Research Security

October 8, 2021

CONTACTS

Christa Wagner, Senior Legislative Analyst

chwagner@aamc.org

202-828-0595

The House Science, Space, and Technology Subcommittees on Investigations and Oversight and Research and Technology held an Oct. 5 hearing featuring researchers and administration officials testifying on research security in the federally funded research enterprise.

Subcommittee members and witnesses emphasized the importance of striking the right balance in maintaining open research while addressing foreign government influence in said research.

“Openness in science allows reproduction and replication of work, increasing the reliability of conclusions and building public trust,” stated Subcommittee on Investigations and Oversight Chairman Bill Foster (D-Ill.) in his opening statement. He added that openness does come with risks but that “we must not let the solution be worse than the problem.” 

Ranking Member Jay Obernolte (R-Calif.) added that Congress needs to be “stewards of the nearly $45 billion that we invest every year in research at academic institutions.”

Subcommittee members inquired about the negative impacts to the research workforce if overly restrictive mitigation measures are employed.

Temple University Laura H. Carnell Professor of Physics Xiaoxing Xi, PhD, a Chinese American scientist who was falsely accused of espionage by the FBI, urged members not to crack down on open research or adopt policies that are solely directed at Chinese scientists. He added that such a policy “does not protect America’s research security. It makes the U.S. less competitive in innovation and less attractive to talents around the world.”  

Massachusetts Institute of Technology Vice President for Research Maria Zuber, PhD, added, “U.S. competitiveness depends less on defensive measures than on what we do to strengthen our own capabilities. Congress should increase research funding and channel some of it through initiatives like ARPA-H [Advanced Research Projects Agency for Health] and the new Directorate of the National Science Foundation. The heart of U.S. strategy must be to look ahead and invest in our future.”

Research and Technology Subcommittee Chair Haley Stevens (D-Mich.) and Ranking Member Michael Waltz (R-Fla.) both reiterated the committee’s continued work on striking a balance between open science and enhanced security, citing an AAMC-supported provision in the National Defense Authorization Act for Fiscal Year 2020 that established the interagency Joint Commission on the Research Environment (JCORE) [refer to Washington Highlights, Dec. 12, 2019].

Zuber, who also serves as co-chair of the President’s Council of Advisors on Science and Technology, testified that the White House is preparing guidance to implement National Security Presidential Memorandum 33 (NSPM-33), a product of JCORE aimed at further addressing security of federally funded research [refer to Washington Highlights, Aug. 13]. On Sept. 30, the AAMC joined four associations in providing stakeholder feedback to Office of Science and Technology Policy Director Eric Lander, PhD, for consideration in finalizing the NSPM-33 guidance.

Candice Wright, director of science, technology assessment, and analytics at the Government Accountability Office, noted in her opening statement that while research agencies like the National Science Foundation (NSF) and the National Institutes of Health have agency wide conflict of interest policies, they do not fully address or define conflicts of commitment. In addition to better addressing conflicts of commitment, Wright testified that federal research agencies need to engage more in educating the university community on foreign talent programs.

Zuber emphasized the confusion among applicants regarding what information needs to be disclosed and how to disclose that information in applications to different agencies. She added that universities are stepping up to address research security by educating faculty and providing training opportunities on campus while proactively engaging with federal science and law enforcement agencies. Zuber added that while the relationship with law enforcement agencies is important, “universities aren’t set up to be investigative organizations.” 

Several members and witnesses agreed that a better understanding of differences in the culture between law enforcement and academia would be beneficial to communication between the two. NSF Inspector General Allison Lerner added that the agencies’ inspector generals have important roles to play in bridging that communication divide.

Lerner also testified that her office is understaffed for the current volume of cases to be investigated. In questioning, she added that the National Science Foundation for the Future Act (H.R. 2225) would increase her office’s budget by $50 million [refer to Washington Highlights, June 17].



Plan 2.0 para el acceso abierto: ¿un plan o una nueva ambigüedad?

Publicado en THE Times Higher Education https://www.timeshighereducation.com/news/plan-s-20-open-access-plan-bold-may-prove-ineffective   El...