Publicado en THE Times Higher Education
https://www.timeshighereducation.com/news/corrupting-chatgpt-use-polarises-peer-reviewers
Quemadlo con fuego. El uso de ChatGPT «polariza» a los revisores
Una encuesta mundial entre revisores revela una profunda desconfianza hacia ChatGPT, y algunos piden la prohibición total de su uso en la investigación y el mundo académico.
14 de mayo de 2024
Jack Grove
Twitter: @jgro_the
Menos de un tercio de los investigadores cree que la inteligencia artificial (IA) tendrá un impacto positivo en la revisión por pares, según una nueva encuesta que revela el profundo malestar de los académicos sobre la tecnología.
En una encuesta realizada a más de 3.000 académicos por IOP Publishing, la rama editorial del Instituto de Física del Reino Unido, sólo el 29% de los encuestados opinaba que la IA generativa mejoraría la revisión por pares. Algunos afirman que la IA podría ayudar a comprobar el plagio y la calidad del inglés de los manuscritos, lo que ayudaría a los editores a filtrar los manuscritos problemáticos o de baja calidad antes de someterlos a la revisión por pares.
Sin embargo, una proporción mayor -el 35%- cree que la IA generativa tendría un impacto perjudicial en la revisión por pares, y varios encuestados ven la tecnología de forma totalmente negativa.
«La IA es hasta ahora muy poco inteligente... nunca podría responder correctamente a mis preguntas en línea», comentó uno de los encuestados, que consideraba la tecnología “una herramienta para corromper la moral humana”. Otro describió la IA como «una herramienta destructiva para la humanidad» que debería estar «completamente prohibida en el mundo académico y de la investigación», aunque fuera útil para algunas industrias.
Otro respondió simplemente: «La IA es malvada, ¡quemadla con fuego!».
Alrededor del 36% de los participantes en la encuesta, que forma parte del informe State of Peer Review 2024 de la IOP, publicado el 14 de mayo, afirma que tendría un efecto neutro o ningún impacto en la revisión por pares.
Los autores del informe describen las respuestas a la IA como «extremadamente diversas», con una cuestión que «polariza» a los revisores.
Muchos de los encuestados afirman que la tecnología, que desató la polémica el año pasado cuando un revisor recomendó una lista de lectura generada por ChatGPT con eruditos imaginarios, podría desempeñar un papel a la hora de aprobar o rechazar artículos, aunque la crítica humana de los artículos seguiría siendo esencial.
Según el informe, «la respuesta más común a esta pregunta fue que las herramientas de IA generativa pueden proporcionar algunos resultados útiles, pero siempre es necesaria la verificación y edición por parte de expertos humanos antes de utilizar cualquier texto generado por IA en el proceso de revisión por pares».
Según el informe, el uso de IA generativa para redactar o aumentar los informes de revisión por pares plantea «una serie de cuestiones éticas, como la protección de datos y la violación de la confidencialidad, así como dudas sobre la veracidad y exactitud de los informes de los revisores».
En la actualidad, IOP Publishing no permite el uso de IA generativa para redactar o aumentar los informes de revisión por pares, ni acepta que las herramientas de IA generativa figuren como autores de manuscritos.
No obstante, el informe también destaca las «oportunidades» de la IA, incluida la «edición lingüística», y afirma que «las políticas editoriales en torno a la IA generativa deben ser adaptables y justas».
En el informe de la IOP también se pregunta a los académicos sobre el volumen de solicitudes de revisión por pares que reciben, y exactamente el 50% afirma que el número de solicitudes ha aumentado en los últimos tres años, el 11% que el volumen ha disminuido y el 39% que se ha mantenido constante.
Los académicos europeos son más propensos a recibir un número considerable de solicitudes de revisión por pares: el 24% recibe tres o más solicitudes al mes. Por el contrario, en China y la India, sólo el 16% y el 15%, respectivamente, reciben tres o más solicitudes al mes
****************************
‘Burn it with fire!’ ChatGPT use ‘polarises’ peer reviewers
Global survey of peer reviewers reveals deep distrust towards ChatGPT, with some calling for a complete ban on its use in research and academia
May 14, 2024
Twitter: @jgro_the
Less than a third of researchers believe artificial intelligence (AI) will have a positive impact on peer review, according to a new poll that reveals scholars’ deep unease about the technology.
In a survey of more than 3,000 academics by IOP Publishing, the publishing arm of the UK’s Institute of Physics, just 29 per cent of respondents felt generative AI would improve peer review. Some claim AI could help to check manuscripts for plagiarism and English language quality, which would help editors to filter out problematic or low-quality manuscripts before they go out for peer review.
However, a larger proportion – 35 per cent – believe generative AI would have a harmful impact on peer review, with several respondents viewing the technology in an entirely negative light.
“AI is so far very unintelligent…it could never answer my questions properly online,” commented one respondent, who felt the technology was a “a tool of corrupting human moral standard”. Another described AI as “a destructive tool for mankind” which should be “completely banned in academia and research”, even if it was useful for some industries.
Another replied simply: “AI is evil, burn it with fire!”
Some 36 per cent of respondents to the survey, part of the IOP’s State of Peer Review 2024 report, published on 14 May, say it would have a neutral effect or no impact whatsoever on peer review.
The report’s authors describe the responses towards AI as “extremely diverse” with the issue “polarising” reviewers.
Many respondents claim the technology, which has sparked controversy in the past year when a peer reviewer recommended a ChatGPT-generated reading list containing imaginary scholars, could play a role in approving or rejecting papers, although human critique of papers would remain essential.
According to the report, the “most common response to this question was that generative AI tools can provide some useful outputs, but expert human verification and editing is always required before any AI-generated text is used in the peer review process”.
The use of generative AI to write or augment peer review reports raised “a number of ethical issues, including data protection and breaches of confidentiality, and concerns about the veracity and accuracy of reviewer reports”, says the report.
Currently, IOP Publishing does not allow the use of generative AI to write or augment peer review reports, nor does it accept generative AI tools to be named as authors of manuscripts.
The report also highlights, however, the “opportunities” of AI, including “language editing”, stating that “publisher policies around generative AI need to be adaptable and fair”.
The IOP report also quizzed scholars about the volume of peer review requests they receive, with exactly 50 per cent stating the number of requests had increased in the past three years, 11 per cent saying the volume had decreased and 39 per cent saying it had remained constant.
Academics in Europe are more likely to receive substantial numbers of requests for peer review, with 24 per cent receiving three or more requests per month. That compared with those in China and India, where only 16 per cent and 15 per cent respectively received three or more requests per month.
***************