lunes, 20 de enero de 2025

Permitir que las Big Tech entrenen a las IA en la producción académica solo exacerbará la amenaza que supone para la docencia y la investigación, afirma Martyn Hammersley

Publicado en THE Times Higher Education
https://www.timeshighereducation.com/opinion/publishers-must-not-feed-machine-munching-through-academy 



Permitir que las Big Tech entrenen a las IA en la producción académica solo exacerbará la amenaza que supone para la docencia y la investigación, afirma Martyn Hammersley


26 de septiembre de 2024

Martyn Hammersley


El polémico acuerdo de Informa que permite utilizar artículos y libros académicos para entrenar los sistemas de inteligencia artificial de Microsoft plantea interrogantes sobre las responsabilidades de las editoriales académicas, sus relaciones con los autores y sus derechos legales sobre el contenido de lo que publican. Y es probable que estos interrogantes adquieran mayor relevancia a medida que, desafiando las quejas de los autores, las editoriales sigan adelante con otros acuerdos similares. 


Según Informa, propietaria de Taylor and Francis, Routledge y otros sellos académicos, el acuerdo «ampliará el uso de la IA dentro de nuestro negocio y subraya el valor único de nuestra propiedad intelectual»; se espera que sus «ingresos totales de la asociación de IA» superen los 75 millones de dólares en 2024. Supongo que no debería sorprendernos este deseo de explotar aún más el material académico que controla la empresa. Pero, ¿cómo encaja este acuerdo con la afirmación de Informa de que sus responsabilidades con los autores académicos son fundamentales? 


Los grandes modelos lingüísticos (LLM) ya están haciendo estragos en el mundo académico de varias maneras. La más obvia es que están causando considerables dificultades en la evaluación del trabajo de los estudiantes. Un ensayo elaborado con la ayuda de un LLM dice mucho más de las capacidades del software que de las del estudiante. Mejorar el rendimiento de los LLM empeorará el problema, porque será aún más difícil distinguir los ensayos escritos por bots de los escritos por humanos. ¿Quizás en el futuro los títulos deberían concederse a los desarrolladores de software en lugar de a los estudiantes?


Por supuesto, actualmente se dedican muchos esfuerzos a encontrar modos de evaluación que eviten el problema y a educar a estudiantes y académicos sobre cómo emplear la tecnología de forma responsable en la enseñanza y el aprendizaje. Incluso hay quienes ven con buenos ojos el papel de la IA. Sin embargo, a menudo parece que se trata simplemente de aceptar lo que se considera inevitable; tal optimismo es difícil de cuadrar con lo que está ocurriendo realmente sobre el terreno. 


Cuestiones similares se plantean en el contexto de la investigación, con un debate cada vez más intenso sobre cómo se utilizan -y podrían utilizarse- los LLM para elaborar artículos de revistas y libros. Aquí surgen cuestiones interesantes sobre la relación entre la investigación y la escritura. Algunos científicos sociales sostienen desde hace tiempo que son más o menos equivalentes: que, como dijo la socióloga Laurel Richardson hace muchos años, «la escritura es un método de investigación». Si esto es cierto, quizá la IA pueda tomar el relevo, sobre todo en las humanidades y las ciencias sociales, si éstas son «ciencias parlantes», como afirmó en su día otro sociólogo, Harold Garfinkel, basándose en que sus practicantes se dedican simplemente a «empujar palabras».


Sin embargo, si bien es cierto que en estos campos se publican demasiados trabajos de investigación en los que no se utilizan las palabras, no es así en todos los casos. Y, aunque lo fuera, podríamos preguntarnos si los programas de IA pueden utilizar las palabras con la misma eficacia que los humanos para desarrollar nuevos análisis empíricos y teorías. ¿No se limitan los LLM a reordenar y reformular lo que han masticado? Puede que sean capaces de resumir un artículo con eficacia, pero ¿pueden elaborar una crítica perspicaz del mismo? Esto es, sin duda, esencial si el conocimiento se desarrolla a través de la crítica, como han defendido Popper y otros.


Quizá no debamos descartar tan rápidamente la capacidad de la IA para llegar a ser realmente creativa. ¿Es posible que, al menos en algunos campos, los investigadores ya no tengan nada que hacer? Pero cabe preguntarse: ¿debería una editorial académica acelerar este proceso?


Otra cuestión es que Informa ni siquiera informó a los autores del acuerdo, y mucho menos les consultó al respecto: se informó por primera vez (de forma un tanto críptica) en un comunicado de prensa centrado en el mercado en mayo, y varios periódicos se hicieron eco de la noticia. ¿Qué nos dice esto sobre la actitud de las grandes editoriales? La implicación es que los autores académicos son meros proveedores de contenidos y que las empresas tienen vía libre para hacer lo que quieran con esos contenidos. En otras palabras, se trata simplemente de una relación de mercado que hay que explotar de la manera más eficaz posible. 


Por último, está la cuestión de si Informa tiene derecho legal a utilizar material académico de esta manera. Esto podría ser cierto en el caso de los artículos de revistas, cuyos autores se han visto obligados a ceder sus derechos de autor. El caso de los libros, especialmente los publicados antes del desarrollo de los LLM, está menos claro. Según Informa, dado que incluso los primeros contratos le otorgan derechos de publicación, venta, distribución y licencia del contenido publicado, esto cubre el nuevo uso propuesto. Sin embargo, probablemente sólo los tribunales puedan decidir si esto es así. 


En cuanto a la sugerencia de que los autores recibirán mayores regalías, no está claro cómo ocurriría ni quién saldría ganando. En cualquier caso, la pregunta clave sigue siendo: ¿por qué mejorar el rendimiento de los LLM se considera deseable desde un punto de vista académico?


Tal vez este software pueda servir para ahorrar trabajo, pero ¿merecen la pena los problemas que causa? ¿Y quién afronta esos costes y quién obtiene los beneficios? En el caso de los acuerdos con las grandes tecnológicas para permitir la formación LLM, sugiero que las respuestas a estas preguntas son obvias.


Martyn Hammersley es catedrático emérito de investigación educativa y social en la Open University.


*******************************

Allowing Big Tech to train AIs on academic output will only exacerbate the threat posed to teaching and research, says Martyn Hammersley

September 26, 2024

Martyn Hammersley


Informa’s controversial deal allowing academic articles and books to be used to train Microsoft’s AI systems raises questions about academic publishers' responsibilities, relationships with authors and legal rights regarding the content of what they publish. And those questions are only likely to become more salient as, in defiance of complaints from authors, publishers press ahead with further similar deals.  

According to Informa, which owns Taylor and Francis, Routledge and other academic imprints, the deal “will extend the use of AI within our business and underlines the unique value of our Intellectual Property”; its “total AI partnership revenues” are expected to be “over $75m in 2024”. We should not be surprised by this desire to further exploit the academic material the company controls, I suppose. But how does this deal square with Informa’s claim that its responsibilities to academic authors are central?  

Large language models (LLMs) are already munching through the academy in various ways. Most obviously, they are causing considerable difficulties in the assessment of student work. An essay produced with the help of an LLM says much more about the software’s capabilities than about those of the student. Improving the performance of LLMs will make that problem worse because it will be even harder to distinguish bot-written essays from human-written ones. Perhaps degrees should be awarded to the software developers rather than to the students in future?  

Of course, much effort is currently being devoted to finding modes of assessment that avoid the problem and to educating students and academics in how to employ the technology responsibly in teaching and learning. There are even those who view the role of AI positively. However, this often seems to be a matter of simply accepting what is regarded as inevitable; such optimism is hard to square with what is actually happening at ground level.   

Similar issues arise in the context of research, with increasing discussion of how LLMs are being – and could be – used to produce journal articles and books. Here, interesting issues arise about the relationship between enquiry and writing. Some social scientists have long argued that these are more or less equivalent: that, as sociologist Laurel Richardson put it many years ago, “writing is a method of inquiry”. If that is true, perhaps AI can simply take over, especially in the humanities and social sciences – if these are “talking sciences”, as another sociologist, Harold Garfinkel, once claimed, on the grounds that their practitioners are engaged in simply “shoving words around”.  

But while shoving words around may be a fair description of too much published research in those fields, it is far from universally true. And, even if it were, we might ask whether AI programs can shove words around as effectively as humans, to develop new empirical analyses and theories. Do LLMs not merely reorder and reformulate what they have munched their way through? They may be able to summarise an article effectively, but can they produce an insightful critique of it? This is surely essential if knowledge develops through criticism, as Popper and others have argued.  

Perhaps we ought not to dismiss so quickly the ability of AI ever to become genuinely creative. Might the writing really be on the wall for researchers, in some fields at least? But it must be asked: should an academic publisher be accelerating this process?

Another issue concerns the fact that Informa did not even tell authors about the deal, never mind consult them on it: it was first reported (somewhat cryptically) in a market-focused press release in May, and was picked up by several newspapers. What does this tell us about the attitudes of large publishers? The implication is that academic authors are merely content providers and that companies have a free hand to do whatever they wish with that content. In other words, what is involved is simply a market relationship that is to be exploited as effectively as possible.  

Finally, there is the question of whether Informa is legally entitled to use academic material in this way. That could be true as regards journal articles, where authors have been forced to sign away their copyright. The case of books, particularly those published before the development of LLMs, is less clear. According to Informa, since even early contracts give it rights to publish, sell, distribute and license the published content, this covers the proposed new use. However, whether that is the case could probably only be decided in court. 

As for the suggestion that authors will receive enhanced royalties, it is not clear how this would occur or who would gain. Either way, the key question remains: why would improving the performance of LLMs be regarded as desirable from an academic point of view?

This software can perhaps serve as a labour-saving tool, but are the problems it causes worth its benefits? And who faces those costs, and who gets the benefits? In the case of deals with big tech to allow LLM training, I suggest that the answers to those questions are obvious.

Martyn Hammersley is emeritus professor of educational and social research at the Open University

**********

U.S.A. vs CHINA: la Universidad de Michigan rompe con la Universidad Jiao Tong de Shanghái

Publicado en Science
https://www.science.org/content/article/sign-rising-tensions-university-michigan-ends-partnership-chinese-campus?utm_source=onesignal&utm_medium=webpush&utm_content=news&utm_campaign=ScienceInsider 




En un signo de tensiones crecientes, la Universidad de Michigan pone fin a su asociación con un campus chino


Los republicanos del Congreso habían expresado su preocupación por el trabajo con la Universidad Jiao Tong de Shanghái


13 de enero de 2025


La Universidad de Michigan (UM) anunció la semana pasada que pondrá fin a una colaboración con una universidad china de élite que ha financiado investigaciones biomédicas y energéticas conjuntas y formado a estudiantes de ciencias e ingeniería.


La asociación de 20 años de la UM con la Universidad Jiao Tong de Shanghai (SJTU) es la última víctima académica de las crecientes tensiones geopolíticas entre Estados Unidos y China. En septiembre de 2024, el Instituto de Tecnología de Georgia (Georgia Tech) abandonó un instituto conjunto que mantenía desde hacía 10 años con la Universidad de Tianjin. Y la Universidad de California (UC), Berkeley, está renunciando a la propiedad de un centro de investigación que puso en marcha con la Universidad de Tsinghua, conocido como el Instituto de Tecnología de Massachusetts de China, en 2014. 


Según Tony Chan, matemático de la Universidad de California en Los Ángeles y ex presidente de la Universidad de Ciencia y Tecnología de Hong Kong, estos acontecimientos reflejan «el profundo y pronunciado deterioro» de las relaciones entre las comunidades científicas de Estados Unidos y China. «El mensaje es muy claro para las universidades», afirma. «No tengan nada que ver con China».


Precipitó la ruptura UM-SJTU un informe de septiembre de 2024 que levantó ampollas, elaborado por miembros republicanos del Comité Selecto bipartidista sobre el Partido Comunista Chino (PCCh) de la Cámara de Representantes de Estados Unidos. En él se argumentaba que cientos de millones de dólares en fondos de investigación estadounidenses durante la última década han ayudado a China a «lograr avances en tecnologías de doble uso, críticas y emergentes» como las armas hipersónicas, la inteligencia artificial y los semiconductores avanzados. El informe centra gran parte de su ira en las empresas conjuntas en las que participan Georgia Tech y UC Berkeley.


La UM quedó en el punto de mira en una carta de 31 de octubre de 2024 del presidente del comité selecto, el representante John Moolenaar (R-MI). En ella pedía al presidente de la UM, Santa Ono, que rompiera los lazos de la universidad con el SJTU porque «parecen crear los mismos riesgos que las asociaciones» señaladas en el informe de su grupo. Moolenaar afirmó que varios de los proyectos del instituto conjunto habían hecho avanzar las capacidades de defensa e inteligencia de China, incluidos los centrados en la investigación del combustible para cohetes, la tecnología anticorrosión para aviones militares y las redes inalámbricas 6G.


La SJTU fue pionera en forjar vínculos académicos con Estados Unidos: Fue la primera universidad china en visitar Estados Unidos después de que ambas naciones empezaran a normalizar sus relaciones en 1978. Hoy en día, afirmó Moolenaar, la SJTU «desempeña un papel fundamental» en la «estrategia de fusión militar-civil» del PCCh. Y señaló que, en octubre de 2024, los fiscales federales acusaron a cinco estudiantes chinos que habían pertenecido al instituto UM-SJTU de encubrir una visita a medianoche en 2023 a Camp Grayling, una remota base militar en Michigan. Los estudiantes tomaron e intentaron borrar fotos de vehículos militares, según la acusación. 


La UM pone fin al instituto conjunto a la luz de las «importantes preocupaciones en relación con la seguridad nacional y la integridad de la empresa de investigación académica [de la UM]», escribió Ono en una carta dirigida a Moolenaar el 10 de enero. Ono declaró que todos los proyectos de investigación UM-SJTU se habían liquidado y que la UM «mejoraría el examen de las solicitudes de visado para estudiantes internacionales».


«Es una pena» que la colaboración haya tenido que terminar, afirma el científico de salud ambiental Edward Zellers, profesor emérito de la UM que colaboró hace una década con el físico Zhongyu Hou de la SJTU en un instrumento para analizar biomarcadores del aliento. Zellers afirma que la UM parecía estar en sintonía con los problemas de seguridad nacional: Examinó nuestro trabajo con mucho cuidado». Pero «no le sorprende» que la UM cierre el instituto: «Quizá hubo actividades nefastas», dice.


SJTU no había emitido ninguna declaración sobre la decisión de UM antes del cierre de Science. En un foro sobre educación superior celebrado en la Universidad de Westlake (China) en octubre de 2024, el presidente de la SJTU, Ding Kuiling, afirmó que el deterioro de las relaciones entre China y Estados Unidos había dificultado la renovación del acuerdo por el que se rige el instituto conjunto antes de que las universidades firmaran una prórroga de 10 años en 2023. Los miles de antiguos alumnos del instituto han «desempeñado un papel muy importante» a la hora de demostrar el valor de la asociación, afirmó. 


Con la esperanza de evitar una ruptura total de los lazos científicos y académicos, los gobiernos de Estados Unidos y China firmaron el mes pasado una prórroga de su Acuerdo Científico y Tecnológico de 45 años de antigüedad. El pacto establece las condiciones para la colaboración en I+D entre entidades gubernamentales en ámbitos como la vigilancia de enfermedades y las energías limpias, y sirve de modelo para las asociaciones universitarias. Aun así, las mejores universidades chinas están forjando cada vez más alianzas en otros lugares. La Universidad de Fudan, por ejemplo, ha creado en los últimos años la Liga de Universidades BRICS y el Consorcio Universitario Fudan-América Latina para promover lazos fuera de Estados Unidos y Europa Occidental. «Estamos reestructurando nuestro marco de cooperación global», declaró Jin Li, Presidente de Fudan, a los asistentes al foro de Westlake.


Chan, que fue presidente de la Universidad Rey Abdullah de Ciencia y Tecnología de 2018 a 2024, advierte de que una «disociación» de las comunidades académicas china y estadounidense está destinada a perjudicar a ambos países. «No es bueno para la ciencia», afirma. «Y no parece que las cosas vayan a mejorar pronto».


********************************


ScienceInsiderAsia/Pacific


In sign of rising tensions, University of Michigan ends partnership with Chinese campus


Republicans in Congress had raised concerns about work with Shanghai Jiao Tong University


13 Jan 2025


Bowing to national security concerns raised by members of the U.S. Congress, the University of Michigan (UM) last week announced it will terminate an institute run with an elite Chinese university that has funded joint biomedical and energy research and trained science and engineering students.


UM’s 20-year partnership with Shanghai Jiao Tong University (SJTU) is the latest academic casualty of rising geopolitical tensions between the United States and China. In September 2024, the Georgia Institute of Technology (Georgia Tech) pulled out of a joint institute it operated for 10 years with Tianjin University. And the University of California (UC), Berkeley is relinquishing ownership in a research hub it launched with Tsinghua University, known as China’s Massachusetts Institute of Technology, in 2014.  


The developments reflect “the really deep and steep downturn” in relations between the U.S. and Chinese scientific communities, says Tony Chan, a mathematician at UC Los Angeles and former president of the Hong Kong University of Science and Technology. “The message is very clear to universities,” he says. “Don’t have anything to do with China.”


Precipitating the UM-SJTU breakup was a blistering September 2024 report from Republican members of the bipartisan U.S. House of Representatives Select Committee on the Chinese Communist Party (CCP). It argued that hundreds of millions of dollars in U.S. research funding over the past decade have helped China “achieve advancements in dual use, critical, and emerging technologies” such as hypersonic weapons, artificial intelligence, and advanced seminconductors. The report focused much of its ire on the joint ventures involving Georgia Tech and UC Berkeley. 


UM came in the crosshairs in a 31 October 2024 letter from the chair of the select committee, Representative John Moolenaar (R–MI). He called on UM President Santa Ono to sever the university’s ties with SJTU because they “appear to create the same risks as those partnerships” targeted in his panel’s report. Moolenaar asserted that a number of the joint institute’s projects had advanced China’s defense and intelligence capabilities, including those focusing on rocket fuel research, anticorrosion technology for military aircraft, and 6G wireless networks.


SJTU was a pioneer in forging academic links with the U.S.: It was the first Chinese university to visit the U.S. after the two nations began to normalize relations in 1978. These days, Moolenaar asserted, SJTU “plays a critical role” in the CCP’s “military-civil fusion strategy.” And he noted that, in October 2024, federal prosecutors charged five Chinese students formerly with the UM-SJTU institute with covering up a midnight visit in 2023 to Camp Grayling, a remote military base in Michigan. The students took and then tried to delete photos of military vehicles, prosecutors allege.   


UM is terminating the joint institute in light of the “significant concerns regarding national security and the integrity of [UM’s] academic research enterprise,” Ono wrote in a 10 January letter to Moolenaar. Ono stated that all UM-SJTU research projects had been wound up and that UM would “improve the vetting of visa requests for international students.”


“It’s a shame” the partnership had to end, says environmental health scientist Edward Zellers, a UM emeritus professor who collaborated a decade ago with SJTU physicist Zhongyu Hou on an instrument for analyzing breath biomarkers. Zellers says UM seemed attuned to national security concerns: It “scrutinized our work very carefully.” But he’s “not surprised” UM is shuttering the institute: “Maybe there was nefarious activity,” he says. 

 

SJTU had not issued a statement on UM’s decision before Science went to press. At a higher education forum at Westlake University in China in October 2024, SJTU President Ding Kuiling said deteriorating China-U.S. relations had made it challenging to renew the agreement governing the joint institute before the universities signed a 10-year extension in 2023. The institute’s thousands of alumni had “played a very important role” in demonstrating the value of the partnership, he said. 


Hoping to avert a total breakdown in scientific and academic ties, the U.S. and Chinese governments last month signed an extension of their 45-year-old Science and Technology Agreement. The pact lays out conditions for R&D collaborations between government entities in areas such as disease surveillance and clean energy, and serves as a template for university partnerships. Still, China’s top universities are increasingly forging alliances elsewhere. Fudan University, for example, in recent years launched the BRICS Universities League and the Fudan-Latin America University Consortium to promote ties outside the U.S. and Western Europe. “We’re reshaping our global cooperation framework,” Fudan President Jin Li told attendees at the Westlake forum.


Chan, who served as president of the King Abdullah University of Science and Technology from 2018 to 2024, warns that a “decoupling” of the Chinese and U.S. academic communities is bound to hurt both countries. “It’s not good for science,” he says. “And it doesn’t look like things are going to get better anytime soon.”



doi: 10.1126/science.zbfmp12


Richard Stone contributes to Science as its senior international correspondent with a focus on Asia. His writing has featured datelines from challenging reporting environments such as Cuba, Iran, and North Korea

viernes, 17 de enero de 2025

"¡Quemadlo con fuego!" - El uso de ChatGPT «polariza» a los revisores

Publicado en THE Times Higher Education
https://www.timeshighereducation.com/news/corrupting-chatgpt-use-polarises-peer-reviewers 



Quemadlo con fuego. El uso de ChatGPT «polariza» a los revisores


Una encuesta mundial entre revisores revela una profunda desconfianza hacia ChatGPT, y algunos piden la prohibición total de su uso en la investigación y el mundo académico.


14 de mayo de 2024

Jack Grove

Twitter: @jgro_the


Menos de un tercio de los investigadores cree que la inteligencia artificial (IA) tendrá un impacto positivo en la revisión por pares, según una nueva encuesta que revela el profundo malestar de los académicos sobre la tecnología.


En una encuesta realizada a más de 3.000 académicos por IOP Publishing, la rama editorial del Instituto de Física del Reino Unido, sólo el 29% de los encuestados opinaba que la IA generativa mejoraría la revisión por pares. Algunos afirman que la IA podría ayudar a comprobar el plagio y la calidad del inglés de los manuscritos, lo que ayudaría a los editores a filtrar los manuscritos problemáticos o de baja calidad antes de someterlos a la revisión por pares.


Sin embargo, una proporción mayor -el 35%- cree que la IA generativa tendría un impacto perjudicial en la revisión por pares, y varios encuestados ven la tecnología de forma totalmente negativa.


«La IA es hasta ahora muy poco inteligente... nunca podría responder correctamente a mis preguntas en línea», comentó uno de los encuestados, que consideraba la tecnología “una herramienta para corromper la moral humana”. Otro describió la IA como «una herramienta destructiva para la humanidad» que debería estar «completamente prohibida en el mundo académico y de la investigación», aunque fuera útil para algunas industrias.


Otro respondió simplemente: «La IA es malvada, ¡quemadla con fuego!». 


Alrededor del 36% de los participantes en la encuesta, que forma parte del informe State of Peer Review 2024 de la IOP, publicado el 14 de mayo, afirma que tendría un efecto neutro o ningún impacto en la revisión por pares.


Los autores del informe describen las respuestas a la IA como «extremadamente diversas», con una cuestión que «polariza» a los revisores.


Muchos de los encuestados afirman que la tecnología, que desató la polémica el año pasado cuando un revisor recomendó una lista de lectura generada por ChatGPT con eruditos imaginarios, podría desempeñar un papel a la hora de aprobar o rechazar artículos, aunque la crítica humana de los artículos seguiría siendo esencial.


Según el informe, «la respuesta más común a esta pregunta fue que las herramientas de IA generativa pueden proporcionar algunos resultados útiles, pero siempre es necesaria la verificación y edición por parte de expertos humanos antes de utilizar cualquier texto generado por IA en el proceso de revisión por pares».


Según el informe, el uso de IA generativa para redactar o aumentar los informes de revisión por pares plantea «una serie de cuestiones éticas, como la protección de datos y la violación de la confidencialidad, así como dudas sobre la veracidad y exactitud de los informes de los revisores».


En la actualidad, IOP Publishing no permite el uso de IA generativa para redactar o aumentar los informes de revisión por pares, ni acepta que las herramientas de IA generativa figuren como autores de manuscritos.


No obstante, el informe también destaca las «oportunidades» de la IA, incluida la «edición lingüística», y afirma que «las políticas editoriales en torno a la IA generativa deben ser adaptables y justas».


En el informe de la IOP también se pregunta a los académicos sobre el volumen de solicitudes de revisión por pares que reciben, y exactamente el 50% afirma que el número de solicitudes ha aumentado en los últimos tres años, el 11% que el volumen ha disminuido y el 39% que se ha mantenido constante.


Los académicos europeos son más propensos a recibir un número considerable de solicitudes de revisión por pares: el 24% recibe tres o más solicitudes al mes. Por el contrario, en China y la India, sólo el 16% y el 15%, respectivamente, reciben tres o más solicitudes al mes



****************************

‘Burn it with fire!’ ChatGPT use ‘polarises’ peer reviewers

Global survey of peer reviewers reveals deep distrust towards ChatGPT, with some calling for a complete ban on its use in research and academia

May 14, 2024

Jack Grove

Twitter: @jgro_the


Less than a third of researchers believe artificial intelligence (AI) will have a positive impact on peer review, according to a new poll that reveals scholars’ deep unease about the technology.

In a survey of more than 3,000 academics by IOP Publishing, the publishing arm of the UK’s Institute of Physics, just 29 per cent of respondents felt generative AI would improve peer review. Some claim AI could help to check manuscripts for plagiarism and English language quality, which would help editors to filter out problematic or low-quality manuscripts before they go out for peer review. 

However, a larger proportion – 35 per cent – believe generative AI would have a harmful impact on peer review, with several respondents viewing the technology in an entirely negative light.

“AI is so far very unintelligent…it could never answer my questions properly online,” commented one respondent, who felt the technology was a “a tool of corrupting human moral standard”. Another described AI as “a destructive tool for mankind” which should be “completely banned in academia and research”, even if it was useful for some industries.

Another replied simply: “AI is evil, burn it with fire!”   

Some 36 per cent of respondents to the survey, part of the IOP’s State of Peer Review 2024 report, published on 14 May, say it would have a neutral effect or no impact whatsoever on peer review.

The report’s authors describe the responses towards AI as “extremely diverse” with the issue “polarising” reviewers.

Many respondents claim the technology, which has sparked controversy in the past year when a peer reviewer recommended a ChatGPT-generated reading list containing imaginary scholars, could play a role in approving or rejecting papers, although human critique of papers would remain essential.   

According to the report, the “most common response to this question was that generative AI tools can provide some useful outputs, but expert human verification and editing is always required before any AI-generated text is used in the peer review process”.

The use of generative AI to write or augment peer review reports raised “a number of ethical issues, including data protection and breaches of confidentiality, and concerns about the veracity and accuracy of reviewer reports”, says the report.

Currently, IOP Publishing does not allow the use of generative AI to write or augment peer review reports, nor does it accept generative AI tools to be named as authors of manuscripts.

The report also highlights, however, the “opportunities” of AI, including “language editing”, stating that “publisher policies around generative AI need to be adaptable and fair”.

The IOP report also quizzed scholars about the volume of peer review requests they receive, with exactly 50 per cent stating the number of requests had increased in the past three years, 11 per cent saying the volume had decreased and 39 per cent saying it had remained constant.

Academics in Europe are more likely to receive substantial numbers of requests for peer review, with 24 per cent receiving three or more requests per month. That compared with those in China and India, where only 16 per cent and 15 per cent respectively received three or more requests per month.

***************


Proyecto OLIVA se actualiza con los resultados de su 2a etapa: inclusión de Latindex y Biblat

Publicado en Centro de Estudios de la Circulación del Conocimiento https://cecic.fcp.uncuyo.edu.ar/2025/10/01/el-cecic-actualizo-el-sitio-we...