Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas
Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas

viernes, 17 de enero de 2025

"¡Quemadlo con fuego!" - El uso de ChatGPT «polariza» a los revisores

Publicado en THE Times Higher Education
https://www.timeshighereducation.com/news/corrupting-chatgpt-use-polarises-peer-reviewers 



Quemadlo con fuego. El uso de ChatGPT «polariza» a los revisores


Una encuesta mundial entre revisores revela una profunda desconfianza hacia ChatGPT, y algunos piden la prohibición total de su uso en la investigación y el mundo académico.


14 de mayo de 2024

Jack Grove

Twitter: @jgro_the


Menos de un tercio de los investigadores cree que la inteligencia artificial (IA) tendrá un impacto positivo en la revisión por pares, según una nueva encuesta que revela el profundo malestar de los académicos sobre la tecnología.


En una encuesta realizada a más de 3.000 académicos por IOP Publishing, la rama editorial del Instituto de Física del Reino Unido, sólo el 29% de los encuestados opinaba que la IA generativa mejoraría la revisión por pares. Algunos afirman que la IA podría ayudar a comprobar el plagio y la calidad del inglés de los manuscritos, lo que ayudaría a los editores a filtrar los manuscritos problemáticos o de baja calidad antes de someterlos a la revisión por pares.


Sin embargo, una proporción mayor -el 35%- cree que la IA generativa tendría un impacto perjudicial en la revisión por pares, y varios encuestados ven la tecnología de forma totalmente negativa.


«La IA es hasta ahora muy poco inteligente... nunca podría responder correctamente a mis preguntas en línea», comentó uno de los encuestados, que consideraba la tecnología “una herramienta para corromper la moral humana”. Otro describió la IA como «una herramienta destructiva para la humanidad» que debería estar «completamente prohibida en el mundo académico y de la investigación», aunque fuera útil para algunas industrias.


Otro respondió simplemente: «La IA es malvada, ¡quemadla con fuego!». 


Alrededor del 36% de los participantes en la encuesta, que forma parte del informe State of Peer Review 2024 de la IOP, publicado el 14 de mayo, afirma que tendría un efecto neutro o ningún impacto en la revisión por pares.


Los autores del informe describen las respuestas a la IA como «extremadamente diversas», con una cuestión que «polariza» a los revisores.


Muchos de los encuestados afirman que la tecnología, que desató la polémica el año pasado cuando un revisor recomendó una lista de lectura generada por ChatGPT con eruditos imaginarios, podría desempeñar un papel a la hora de aprobar o rechazar artículos, aunque la crítica humana de los artículos seguiría siendo esencial.


Según el informe, «la respuesta más común a esta pregunta fue que las herramientas de IA generativa pueden proporcionar algunos resultados útiles, pero siempre es necesaria la verificación y edición por parte de expertos humanos antes de utilizar cualquier texto generado por IA en el proceso de revisión por pares».


Según el informe, el uso de IA generativa para redactar o aumentar los informes de revisión por pares plantea «una serie de cuestiones éticas, como la protección de datos y la violación de la confidencialidad, así como dudas sobre la veracidad y exactitud de los informes de los revisores».


En la actualidad, IOP Publishing no permite el uso de IA generativa para redactar o aumentar los informes de revisión por pares, ni acepta que las herramientas de IA generativa figuren como autores de manuscritos.


No obstante, el informe también destaca las «oportunidades» de la IA, incluida la «edición lingüística», y afirma que «las políticas editoriales en torno a la IA generativa deben ser adaptables y justas».


En el informe de la IOP también se pregunta a los académicos sobre el volumen de solicitudes de revisión por pares que reciben, y exactamente el 50% afirma que el número de solicitudes ha aumentado en los últimos tres años, el 11% que el volumen ha disminuido y el 39% que se ha mantenido constante.


Los académicos europeos son más propensos a recibir un número considerable de solicitudes de revisión por pares: el 24% recibe tres o más solicitudes al mes. Por el contrario, en China y la India, sólo el 16% y el 15%, respectivamente, reciben tres o más solicitudes al mes



****************************

‘Burn it with fire!’ ChatGPT use ‘polarises’ peer reviewers

Global survey of peer reviewers reveals deep distrust towards ChatGPT, with some calling for a complete ban on its use in research and academia

May 14, 2024

Jack Grove

Twitter: @jgro_the


Less than a third of researchers believe artificial intelligence (AI) will have a positive impact on peer review, according to a new poll that reveals scholars’ deep unease about the technology.

In a survey of more than 3,000 academics by IOP Publishing, the publishing arm of the UK’s Institute of Physics, just 29 per cent of respondents felt generative AI would improve peer review. Some claim AI could help to check manuscripts for plagiarism and English language quality, which would help editors to filter out problematic or low-quality manuscripts before they go out for peer review. 

However, a larger proportion – 35 per cent – believe generative AI would have a harmful impact on peer review, with several respondents viewing the technology in an entirely negative light.

“AI is so far very unintelligent…it could never answer my questions properly online,” commented one respondent, who felt the technology was a “a tool of corrupting human moral standard”. Another described AI as “a destructive tool for mankind” which should be “completely banned in academia and research”, even if it was useful for some industries.

Another replied simply: “AI is evil, burn it with fire!”   

Some 36 per cent of respondents to the survey, part of the IOP’s State of Peer Review 2024 report, published on 14 May, say it would have a neutral effect or no impact whatsoever on peer review.

The report’s authors describe the responses towards AI as “extremely diverse” with the issue “polarising” reviewers.

Many respondents claim the technology, which has sparked controversy in the past year when a peer reviewer recommended a ChatGPT-generated reading list containing imaginary scholars, could play a role in approving or rejecting papers, although human critique of papers would remain essential.   

According to the report, the “most common response to this question was that generative AI tools can provide some useful outputs, but expert human verification and editing is always required before any AI-generated text is used in the peer review process”.

The use of generative AI to write or augment peer review reports raised “a number of ethical issues, including data protection and breaches of confidentiality, and concerns about the veracity and accuracy of reviewer reports”, says the report.

Currently, IOP Publishing does not allow the use of generative AI to write or augment peer review reports, nor does it accept generative AI tools to be named as authors of manuscripts.

The report also highlights, however, the “opportunities” of AI, including “language editing”, stating that “publisher policies around generative AI need to be adaptable and fair”.

The IOP report also quizzed scholars about the volume of peer review requests they receive, with exactly 50 per cent stating the number of requests had increased in the past three years, 11 per cent saying the volume had decreased and 39 per cent saying it had remained constant.

Academics in Europe are more likely to receive substantial numbers of requests for peer review, with 24 per cent receiving three or more requests per month. That compared with those in China and India, where only 16 per cent and 15 per cent respectively received three or more requests per month.

***************


lunes, 6 de enero de 2025

[ IA y Revisión por pares ] Si se escribe con IA... ¿La revisión de los escrito también debe usar la IA?

Publicado en blog Impact of Social Sciences (London School of Economics-LSE)
https://blogs.lse.ac.uk/impactofsocialsciences/2024/09/25/if-generative-ai-accelerates-science-peer-review-needs-to-catch-up/ 



Simone Ragavooloo


25 de septiembre de 2024


Si la IA generativa acelera la ciencia, la revisión por pares debe ponerse al día



Cada vez hay más estudios que demuestran el uso generalizado de la IA generativa en las publicaciones de investigación. Ante el consiguiente aumento del número de publicaciones, Simone Ragavooloo argumenta que los editores y revisores deberían adoptar herramientas de IA para realizar el trabajo pesado de la revisión estadística y metodológica y permitirles centrarse en áreas que requieren experiencia humana.


La inteligencia artificial está transformando la ciencia y la edición científica debe seguir el ritmo de este cambio. El informe Top 10 Emerging Technologies of 2024 del Foro Económico Mundial destaca los miles de millones de fondos que se están invirtiendo en IA sólo en el ámbito de los descubrimientos científicos.


La IA ya se aplica ampliamente en la investigación, desde el descubrimiento de nuevas familias de antibióticos hasta el estudio de innumerables fenómenos sociales y culturales. El Consejo de Asesores sobre Ciencia y Tecnología del Presidente de Estados Unidos (PCAST) ha declarado que «la IA tiene el potencial de transformar todas las disciplinas científicas y muchos aspectos de la forma en que hacemos ciencia». El potencial transformador de la IA no sólo reside en cómo investigamos, sino en cuánta investigación científica producimos, como se reconoce en el informe de la OCDE 2023 Artificial Intelligence in Science: «aumentar la productividad de la investigación podría ser el más valioso económica y socialmente de todos los usos de la IA». Por favor denos unos días más para intentar tener una opinión más consolidada


Los editores deben ahora adaptarse e innovar como lo hicieron durante el paso de lo impreso a lo digital a finales del siglo XX. Sin embargo, la revisión por pares supone un reto para estas visiones. Se calcula que en 2020 se dedicarán 100 millones de horas a la revisión por pares, una cifra que podría aumentar exponencialmente si no se apoya a los revisores. Dado que algunos ya consideran que el sistema actual funciona al límite de su capacidad, Lisa Messeri y M. J. Crockett afirman que una «ciencia a gran escala» basada en la inteligencia artificial podría provocar una «ilusión de comprensión», en la que un aumento significativo de la productividad y los resultados científicos no se viera correspondido por la perspicacia y el criterio humanos.


Una de las respuestas es combinar lo similar con lo similar. Para liberar la experiencia de los revisores humanos, necesitamos desarrollar y confiar más en las herramientas de revisión por pares y de integridad de la investigación basadas en IA para que hagan el trabajo pesado. El primer paso es evitar que la ciencia fraudulenta o simplemente «mala» entre en el proceso de revisión por pares. La situación de la integridad de la investigación es análoga al uso que hacen la ciberseguridad y el sector financiero de la IA para combatir el fuego con fuego. Estas aplicaciones ponen de relieve la capacidad de la IA para procesar grandes cantidades de datos e identificar anomalías a un ritmo que no puede igualar la detección humana. De hecho, ya existen herramientas de IA en la integridad de la investigación, AIRA de Frontiers se puso en línea ya en 2018 y ahora se une a una serie de herramientas de IA que abordan diversos aspectos del fraude en la investigación. La Asociación Internacional de Editores Científicos, Técnicos y Médicos (STM) creó recientemente el Centro de Integridad STM para agregar y aprovechar estas innovaciones tecnológicas en los editores de investigación. 


Por muy positivas que sean estas medidas de las editoriales para proteger la integridad de la investigación, el mayor reto al que se enfrentan las editoriales en relación con la IA no son las prácticas malignas de unos pocos, sino la adopción positiva de herramientas de IA para hacer avanzar y agilizar la investigación por parte de muchos.  


Entonces, ¿qué hay que hacer? Las editoriales deben superar las limitaciones iniciales de la IA y los primeros grandes modelos lingüísticos (incluidos los datos disponibles para entrenar estos LLM) y aprovechar el potencial de la revisión por pares basada en la IA. Los datos abiertos son un primer ejemplo de esta tendencia. Los datos abiertos, un principio básico del movimiento de la ciencia abierta, permiten a la IA en el descubrimiento científico establecer la conexión entre los datos interoperables producidos por diferentes equipos de investigación.  A medida que los datos científicos obtenidos mediante IA se hacen más grandes y complejos, la tarea clave de los revisores de detectar errores metodológicos y estadísticos en las presentaciones se vuelve más exigente. Una situación que a menudo se ve agravada por la falta de formación y conocimientos estadísticos avanzados de algunos investigadores. Por lo tanto, la combinación de IA con ciencia abierta/datos abiertos tiene el potencial de aumentar los descubrimientos científicos y la innovación, pero también crea combinaciones más complejas de datos y más riesgo de que se introduzcan fallos en los conjuntos de datos.


Por poner un ejemplo real, un equipo científico líder produjo datos originales con buena intención, utilizando el aprendizaje automático para identificar microbiomas asociados al cáncer. El escrutinio por pares posterior a la publicación identificó problemas con los datos y señaló la «avalancha» de estudios posteriores que utilizaron estos datos creyéndolos sólidos. A ello siguieron retractaciones e investigaciones relacionadas.  Desde el punto de vista del editor y de la revisión por pares, la pregunta es cómo se pudo evitar que los datos entraran en el registro científico. A este respecto, todavía nos encontramos en un periodo de transición, en el que los investigadores y editores siguen aprendiendo de este tipo de incidentes y adaptando las metodologías de investigación y los protocolos de revisión por pares a medida que se generaliza el uso de la IA y los LLM en la investigación.   


Las editoriales tienen la escala y la experiencia tecnológica para experimentar y desarrollar herramientas en este ámbito. A medida que aumentan las aplicaciones de la IA en la investigación científica, no es deseable ni factible confiar en un pequeño grupo de revisores estadísticos para hacer el trabajo pesado con datos cada vez más complejos producidos a un ritmo más rápido.  Las herramientas de los editores deberían ayudar tanto a los autores como a los revisores detectando automáticamente y con precisión errores o anomalías estadísticas, sugiriendo métodos estadísticos apropiados y proporcionando un análisis preliminar de los datos de los investigadores. Si logramos esto, incluso con grandes conjuntos de datos generados por IA, el proceso de revisión seguirá siendo sólido pero racionalizado, liberando a los revisores humanos para que se centren en otros aspectos críticos del manuscrito.


Hay dos cosas claras. En primer lugar, la revisión por pares no puede mantenerse en su estado actual a medida que la IA aumenta la producción científica. En segundo lugar, a medida que crece el volumen de la investigación, la colaboración, así como la innovación, son esenciales para proteger el discurso científico y la integridad del registro científico. ¿Qué aspecto tiene la cooperación entre publicaciones e investigaciones, desde la mesa del laboratorio hasta la página del editor, y cómo podemos impulsarla? ¿Podemos desarrollar herramientas de inteligencia artificial lo suficientemente avanzadas como para detectar grandes volúmenes de datos defectuosos antes de que se incorporen al registro científico? ¿Cómo funcionaría un sistema de alerta para todos los editores (similar a las alertas de ciberseguridad) para compartir información que impida la difusión de datos y análisis erróneos?


La IA en la ciencia y la edición se encuentra en sus primeras fases, pero ya es una realidad que hay que abordar y seguir desarrollando.  Juntos debemos abrir el camino hacia el potencial de la IA en la innovación científica. 



Sobre la autora

Simone Ragavooloo


Simone Ragavooloo es experta en integridad de la investigación y asesora del Comité de Ética de las Publicaciones (COPE). Su trabajo se centra en ayudar a los editores a formular y aplicar políticas que promuevan la integridad de la investigación y eleven las normas éticas de publicación. Es una firme defensora del papel fundamental que desempeñan los editores en la formulación de políticas y la influencia en la conducta ética dentro de la comunidad investigadora. Simone ha ocupado puestos relacionados en BMJ y Springer Nature y actualmente aporta su experiencia en Frontiers como Directora de Cartera de Integridad de la Investigación. 



****************


Simone Ragavooloo

September 25th, 2024

If generative AI accelerates science, peer review needs to catch up



Studies have increasingly shown the widespread use of generative AI in research publications. Faced with the consequent uptick in the number of publications, Simone Ragavooloo argues that editors and reviewers should embrace AI tools to undertake the heavy lifting of statistical and methodological review and to allow them to focus on areas that require human expertise.

Artificial Intelligence is transforming science and science publishing must keep pace with this change. The World Economic Forum’s Top 10 Emerging Technologies of 2024 report highlights the billions of funding being ploughed into AI in scientific discovery alone.

AI is now already widely applied in research, from discovering new families of antibiotics to studying myriad social and cultural phenomena. The United States’ President’s Council of Advisors on Science and Technology (PCAST) has stated “AI has the potential to transform every scientific discipline and many aspects of the way we conduct science.” AI’s transformative potential lies not only in how we do research, but in how much scientific research we produce, as recognised in the OECD’s 2023 Artificial Intelligence in Science report: “raising the productivity of research could be the most economically and socially valuable of all the uses of AI”.

Publishers must now adapt and innovate just as they did during the shift from print to digital at the end of the 20th century. However, peer review presents a challenge to these visions. 100 million hours were estimated to be spent on peer review in 2020, a figure that could rise exponentially if reviewers are not supported. Given that the current system is already viewed by some as working at capacity, Lisa Messeri and M J. Crockett have argued an AI-enabled ‘science-at-volume’ could lead to the ‘illusion of understanding’, whereby a significant escalation in scientific productivity and output is not matched by human insight and judgement.

One answer is to meet like with like. To free up human reviewer expertise, we need to develop and trust more in AI-enabled peer review and research integrity tools to do the heavy lifting. Preventing fraudulent and plain, old ‘bad’ science entering the peer review process is the first step. The situation in research integrity is analogous here with cyber security’s and the finance sector’s use of AI to fight fire with fire. These applications highlight AI’s capability to process vast amounts of data and identify anomalies at a rate that cannot be matched by human detection. Indeed, AI-tools in research integrity already exist, Frontiers’ AIRA came online as early as 2018 and is now joined by an array of AI-tools tackling various aspects of research fraud. The International Association of Scientific, Technical and Medical Publishers (STM) recently created the STM Integrity Hub to aggregate and harness such technological innovations across research publishers.  

Positive as these steps are by publishers to protect research integrity, the greatest challenge facing publishers in relation to AI is not malign practices by the few, but the positive adoption of AI tools to advance and expediate research by the many.

So, what is to be done? Publishers need to get past initial limitations with AI and early large language models (including the data available to train these LLMs) and realise the potential of AI-enabled peer review. Open data is an early example of this trend. A core tenet of the open science movement, open data enables AI-in-scientific-discovery to make the connection between interoperable data produced by different research teams.  As AI-enabled scientific data becomes bigger and more complex, the key reviewer task of spotting methodological and statistical errors in submissions becomes more demanding. A situation that is often exacerbated by the lack of advanced statistical training and expertise for some researchers. The combination of AI with open science/open data therefore has the potential to increase scientific discovery and innovation, but it also creates more complex combinations of data and more risk of flaws being introduced to datasets.   

To give a real-world example, a-leading science team produced original data with good intent, using machine-learning to identify microbiomes associated with cancer. Post-publication peer scrutiny identified problems with the data and pointed to the “flurry” of subsequent studies that used this data believing it to be sound. Retractions and related investigations followed.  From a publisher and peer review perspective, the question is how the data could have been prevented from entering the scientific record? In this respect, we are all still in the transitional period, where researchers and publishers continue to learn from such incidents and adapt research methodologies and peer-review protocols as the use of AI and LLMs in research becomes widespread.

Publishers have the scale and technological expertise to experiment and develop tools in this space. As more applications of AI in scientific research come online, it is neither desirable nor feasible to rely on a small pool of statistical reviewers to do the heavy lifting with evermore complex data produced at a faster rate.  Publishers’ tools should assist both authors and reviewers by automatically and accurately detecting statistical errors or anomalies, suggesting appropriate statistical methods, and providing a preliminary analysis of researchers’ data. If we can achieve this, then even with big, AI-generated datasets, the review process will remain robust but streamlined, freeing up human reviewers to focus on other critical aspects of the manuscript.  

Two things are clear. First, peer review cannot be sustained in its current state as AI increases science output. Second, as the volume of research grows, collaboration, as well as innovation, is essential to protect scientific discourse and the integrity of the scientific record. What does cross-publishing, cross-research cooperation look like, from the lab bench to publisher’s page and how do we drive it forward? Can we develop AI tools advanced enough to catch faulty big data before it enters the scientific record? How would a publisher-wide alert system (not dissimilar to cyber security alerts) work, to share intelligence that stops flawed data and analysis from spreading?

AI in science and publishing is in its early stages, but it is already a reality that needs to be addressed and further developed.  Together, we should provide an open path forward to the potential of AI in scientific innovation.  


About the author

Simone Ragavooloo

Simone Ragavooloo is an experienced Research Integrity expert and advisor for the Committee on Publication Ethics (COPE). Her work is focused on supporting publishers to form and implement policies that advance research integrity and elevate publication ethics standards. She is a vocal proponent of the critical role publishers play in shaping policy and influencing ethical conduct within the research community. Simone has held related positions at BMJ and Springer Nature and currently contributes her expertise at Frontiers as Research Integrity Portfolio Manager. 


lunes, 2 de diciembre de 2024

Plantea OCDE emplear la IA ante el envejecimiento de la fuerza laboral

Publicado en La Jornada
https://www.jornada.com.mx/2024/12/02/economia/023n1eco#:~:text=Debido%20a%20que%20la%20poblaci%C3%B3n,destaca%20un%20estudio%20del%20organismo.




Plantea OCDE emplear la IA ante el envejecimiento de la fuerza laboral

La escasez de mano de obra es generalizada en los países incorporados

Jessika Becerra
 
Periódico La Jornada
Lunes 2 de diciembre de 2024, p. 23

Debido a que la población de más de 30 por ciento de países incorporados a la Organización para la Cooperación y Desarrollo Económico (OCDE) se reduce y más de 90 por ciento envejece, la inteligencia artificial (IA) debe aprovecharse para cubrir necesidades del mercado laboral, destaca un estudio del organismo.

En el capítulo Más allá de la automatización; descifrando el impacto de la IA generativa en los mercados laborales regionales, de sus estudio Creación de empleo y desarrollo económico local 2022, la OCDE sostiene que un desafío importante para los responsables de las políticas es abordar las necesidades de fuerza laboral ante una población en edad de trabajar cada vez más reducida.

La institución destacó que a la par, la escasez de mano de obra es generalizada en todas las regiones de la OCDE y puede ampliarse dadas las tendencias demográficas.

La IA y las tecnologías relacionadas pueden aprovecharse para abordar los desafíos actuales del mercado laboral de cada región y brindar apoyo a los trabajadores marginados, se menciona en el análisis.

Las regiones que experimentan escasez de mano de obra pueden beneficiarse de un mayor uso de la IA, ya sea mediante la capacitación de los trabajadores con herramientas de ésta o la implementación directa de tecnologías de IA, para cubrir vacantes debido al declive demográfico u otros factores.

El organismo expone que los trabajadores poco y medianamente calificados también pueden beneficiarse, ya que la IA se emplearía como una herramienta para cerrar las brechas de habilidades.

La OCDE expuso que en el sector de la educación, por ejemplo, la IA generativa se puede aprovechar a través de chatbots destinados a responder preguntas y abordar dudas de estudiantes de secundaria interesados en ser maestros.

Impulso a personas con discapacidad

La IA puede mejorar la participación en la fuerza de trabajo de las personas con discapacidad, que están subrepresentadas en el mercado laboral.

En 2019, las personas con discapacidad en los países de la OCDE tenían 2.3 veces más probabilidades de estar desempleadas en comparación con los trabajadores sin discapacidad, con una tasa de 27 puntos porcentuales menor.

Equipar los lugares de trabajo con herramientas de IA y enseñar a los empleados con discapacidad las habilidades para usarlas aumentaría la fuerza laboral, menciona la OCDE.

Las herramientas impulsadas por IA, como los vehículos automatizados, pueden mejorar la movilidad y la accesibilidad en los entornos de trabajo; sin embargo, es necesario contar con políticas gubernamentales proactivas que promuevan el desarrollo inclusivo de la IA y la financiación sostenible de la investigación en esa materia y las soluciones de accesibilidad.

martes, 26 de noviembre de 2024

Transformación de la investigación: el cambio en la era de la IA, lo abierto y el impacto

 Publicado en blog Universo abierto



Transformación de la investigación: el cambio en la era de la IA, lo abierto y el impacto



Research Transformation: Change in the Era of AI, Open and Impact. Digital Science, 2024

Texto completo

El informe Research Transformation: Change in the Era of AI, Open and Impact, publicado el 28 de octubre de 2024 en Digital Science, explora cómo la investigación se transforma, qué factores impulsan el cambio y cómo se ven afectados los roles en este ámbito. Digital Science encuestó y entrevistó en profundidad a la comunidad investigadora para analizar estos aspectos.

Los hallazgos destacan cinco puntos clave:

  1. La investigación abierta transforma el campo, aunque persisten barreras.
  2. Las métricas de investigación evolucionan hacia un enfoque inclusivo y de impacto integral.
  3. La IA ofrece un enorme potencial transformador, aunque la burocracia y las brechas de habilidades limitan su avance.
  4. La colaboración aumenta, aunque crecen las preocupaciones sobre financiamiento y seguridad.
  5. La gestión de riesgos y la seguridad exigen un cambio estratégico y cultural.

El estudio se basa en encuestas realizadas entre mayo y julio de 2024, en las que participaron 380 personas de 70 países, y en entrevistas en profundidad con 15 miembros de la comunidad académica durante el verano de 2024.

Temas clave:

1. La investigación abierta está transformando la investigación, pero sigue habiendo obstáculos

  • La investigación abierta se cita como el cambio más positivo de los últimos cinco años
  • La investigación abierta encabeza los cambios que la comunidad desearía ver en los próximos cinco años
  • Los retos de la investigación abierta son la falta de concienciación, financiación, apoyo, recursos e infraestructura.
  • Preocupación por la seguridad de los datos, la calidad de la investigación y la competitividad.

2. Las métricas de investigación están evolucionando para hacer hincapié en el impacto holístico y la inclusividad

  • Frustración con las métricas tradicionales, pero siguen teniendo peso
  • Llamamiento a una evaluación más holística del impacto y la calidad de la investigación
  • Un cambio limitado hacia un uso más responsable de las métricas tradicionales y la introducción de métricas alternativas
  • Los institutos abordan los problemas de la cultura académica, pero necesitan un mayor reconocimiento de las contribuciones no tradicionales

3. El potencial transformador de la IA es enorme, pero la burocracia y las carencias de cualificación amenazan el progreso

  • El entusiasmo por la IA se ve atenuado por las preocupaciones en torno a la ética, la seguridad y la integridad, así como por los prejuicios, las alucinaciones y el impacto de la IA en el pensamiento crítico.
  • Las tecnologías emergentes seguirán influyendo en las funciones durante los próximos cinco años
  • Se espera que las nuevas tecnologías impulsen la eficiencia en datos y análisis, y abran la investigación
  • Llamamiento para abordar las carencias de competencias en IA e introducir estrategias de gestión del cambio
4. La colaboración está en auge, pero aumenta la preocupación por la financiación y la seguridad
  • La tecnología interconectada y la investigación abierta favorecen una mayor conectividad global
  • La colaboración tiene múltiples beneficios, por ejemplo, puede aumentar las citas y mejorar la calidad de la investigación
  • Es fácil encontrar colaboradores, pero escasean los fondos para apoyar la colaboración
  • Crece la preocupación por la seguridad de la investigación y las colaboraciones «perjudiciales

5. La seguridad y la gestión de riesgos necesitan una revisión estratégica y cultural

  • Tendencia a «esperar y ver», en lugar de una gestión proactiva
  • Las amenazas a la seguridad ponen en peligro las colaboraciones internacionales en investigación
  • Las instituciones deben equilibrar el riesgo y la innovación, pero no están preparadas.
  • La gestión de riesgos entra en conflicto con otras prioridades

"¡Quemadlo con fuego!" - El uso de ChatGPT «polariza» a los revisores

Publicado en THE Times Higher Education https://www.timeshighereducation.com/news/corrupting-chatgpt-use-polarises-peer-reviewers   Quemadlo...