lunes, 20 de enero de 2025

Permitir que las Big Tech entrenen a las IA en la producción académica solo exacerbará la amenaza que supone para la docencia y la investigación, afirma Martyn Hammersley

Publicado en THE Times Higher Education
https://www.timeshighereducation.com/opinion/publishers-must-not-feed-machine-munching-through-academy 



Permitir que las Big Tech entrenen a las IA en la producción académica solo exacerbará la amenaza que supone para la docencia y la investigación, afirma Martyn Hammersley


26 de septiembre de 2024

Martyn Hammersley


El polémico acuerdo de Informa que permite utilizar artículos y libros académicos para entrenar los sistemas de inteligencia artificial de Microsoft plantea interrogantes sobre las responsabilidades de las editoriales académicas, sus relaciones con los autores y sus derechos legales sobre el contenido de lo que publican. Y es probable que estos interrogantes adquieran mayor relevancia a medida que, desafiando las quejas de los autores, las editoriales sigan adelante con otros acuerdos similares. 


Según Informa, propietaria de Taylor and Francis, Routledge y otros sellos académicos, el acuerdo «ampliará el uso de la IA dentro de nuestro negocio y subraya el valor único de nuestra propiedad intelectual»; se espera que sus «ingresos totales de la asociación de IA» superen los 75 millones de dólares en 2024. Supongo que no debería sorprendernos este deseo de explotar aún más el material académico que controla la empresa. Pero, ¿cómo encaja este acuerdo con la afirmación de Informa de que sus responsabilidades con los autores académicos son fundamentales? 


Los grandes modelos lingüísticos (LLM) ya están haciendo estragos en el mundo académico de varias maneras. La más obvia es que están causando considerables dificultades en la evaluación del trabajo de los estudiantes. Un ensayo elaborado con la ayuda de un LLM dice mucho más de las capacidades del software que de las del estudiante. Mejorar el rendimiento de los LLM empeorará el problema, porque será aún más difícil distinguir los ensayos escritos por bots de los escritos por humanos. ¿Quizás en el futuro los títulos deberían concederse a los desarrolladores de software en lugar de a los estudiantes?


Por supuesto, actualmente se dedican muchos esfuerzos a encontrar modos de evaluación que eviten el problema y a educar a estudiantes y académicos sobre cómo emplear la tecnología de forma responsable en la enseñanza y el aprendizaje. Incluso hay quienes ven con buenos ojos el papel de la IA. Sin embargo, a menudo parece que se trata simplemente de aceptar lo que se considera inevitable; tal optimismo es difícil de cuadrar con lo que está ocurriendo realmente sobre el terreno. 


Cuestiones similares se plantean en el contexto de la investigación, con un debate cada vez más intenso sobre cómo se utilizan -y podrían utilizarse- los LLM para elaborar artículos de revistas y libros. Aquí surgen cuestiones interesantes sobre la relación entre la investigación y la escritura. Algunos científicos sociales sostienen desde hace tiempo que son más o menos equivalentes: que, como dijo la socióloga Laurel Richardson hace muchos años, «la escritura es un método de investigación». Si esto es cierto, quizá la IA pueda tomar el relevo, sobre todo en las humanidades y las ciencias sociales, si éstas son «ciencias parlantes», como afirmó en su día otro sociólogo, Harold Garfinkel, basándose en que sus practicantes se dedican simplemente a «empujar palabras».


Sin embargo, si bien es cierto que en estos campos se publican demasiados trabajos de investigación en los que no se utilizan las palabras, no es así en todos los casos. Y, aunque lo fuera, podríamos preguntarnos si los programas de IA pueden utilizar las palabras con la misma eficacia que los humanos para desarrollar nuevos análisis empíricos y teorías. ¿No se limitan los LLM a reordenar y reformular lo que han masticado? Puede que sean capaces de resumir un artículo con eficacia, pero ¿pueden elaborar una crítica perspicaz del mismo? Esto es, sin duda, esencial si el conocimiento se desarrolla a través de la crítica, como han defendido Popper y otros.


Quizá no debamos descartar tan rápidamente la capacidad de la IA para llegar a ser realmente creativa. ¿Es posible que, al menos en algunos campos, los investigadores ya no tengan nada que hacer? Pero cabe preguntarse: ¿debería una editorial académica acelerar este proceso?


Otra cuestión es que Informa ni siquiera informó a los autores del acuerdo, y mucho menos les consultó al respecto: se informó por primera vez (de forma un tanto críptica) en un comunicado de prensa centrado en el mercado en mayo, y varios periódicos se hicieron eco de la noticia. ¿Qué nos dice esto sobre la actitud de las grandes editoriales? La implicación es que los autores académicos son meros proveedores de contenidos y que las empresas tienen vía libre para hacer lo que quieran con esos contenidos. En otras palabras, se trata simplemente de una relación de mercado que hay que explotar de la manera más eficaz posible. 


Por último, está la cuestión de si Informa tiene derecho legal a utilizar material académico de esta manera. Esto podría ser cierto en el caso de los artículos de revistas, cuyos autores se han visto obligados a ceder sus derechos de autor. El caso de los libros, especialmente los publicados antes del desarrollo de los LLM, está menos claro. Según Informa, dado que incluso los primeros contratos le otorgan derechos de publicación, venta, distribución y licencia del contenido publicado, esto cubre el nuevo uso propuesto. Sin embargo, probablemente sólo los tribunales puedan decidir si esto es así. 


En cuanto a la sugerencia de que los autores recibirán mayores regalías, no está claro cómo ocurriría ni quién saldría ganando. En cualquier caso, la pregunta clave sigue siendo: ¿por qué mejorar el rendimiento de los LLM se considera deseable desde un punto de vista académico?


Tal vez este software pueda servir para ahorrar trabajo, pero ¿merecen la pena los problemas que causa? ¿Y quién afronta esos costes y quién obtiene los beneficios? En el caso de los acuerdos con las grandes tecnológicas para permitir la formación LLM, sugiero que las respuestas a estas preguntas son obvias.


Martyn Hammersley es catedrático emérito de investigación educativa y social en la Open University.


*******************************

Allowing Big Tech to train AIs on academic output will only exacerbate the threat posed to teaching and research, says Martyn Hammersley

September 26, 2024

Martyn Hammersley


Informa’s controversial deal allowing academic articles and books to be used to train Microsoft’s AI systems raises questions about academic publishers' responsibilities, relationships with authors and legal rights regarding the content of what they publish. And those questions are only likely to become more salient as, in defiance of complaints from authors, publishers press ahead with further similar deals.  

According to Informa, which owns Taylor and Francis, Routledge and other academic imprints, the deal “will extend the use of AI within our business and underlines the unique value of our Intellectual Property”; its “total AI partnership revenues” are expected to be “over $75m in 2024”. We should not be surprised by this desire to further exploit the academic material the company controls, I suppose. But how does this deal square with Informa’s claim that its responsibilities to academic authors are central?  

Large language models (LLMs) are already munching through the academy in various ways. Most obviously, they are causing considerable difficulties in the assessment of student work. An essay produced with the help of an LLM says much more about the software’s capabilities than about those of the student. Improving the performance of LLMs will make that problem worse because it will be even harder to distinguish bot-written essays from human-written ones. Perhaps degrees should be awarded to the software developers rather than to the students in future?  

Of course, much effort is currently being devoted to finding modes of assessment that avoid the problem and to educating students and academics in how to employ the technology responsibly in teaching and learning. There are even those who view the role of AI positively. However, this often seems to be a matter of simply accepting what is regarded as inevitable; such optimism is hard to square with what is actually happening at ground level.   

Similar issues arise in the context of research, with increasing discussion of how LLMs are being – and could be – used to produce journal articles and books. Here, interesting issues arise about the relationship between enquiry and writing. Some social scientists have long argued that these are more or less equivalent: that, as sociologist Laurel Richardson put it many years ago, “writing is a method of inquiry”. If that is true, perhaps AI can simply take over, especially in the humanities and social sciences – if these are “talking sciences”, as another sociologist, Harold Garfinkel, once claimed, on the grounds that their practitioners are engaged in simply “shoving words around”.  

But while shoving words around may be a fair description of too much published research in those fields, it is far from universally true. And, even if it were, we might ask whether AI programs can shove words around as effectively as humans, to develop new empirical analyses and theories. Do LLMs not merely reorder and reformulate what they have munched their way through? They may be able to summarise an article effectively, but can they produce an insightful critique of it? This is surely essential if knowledge develops through criticism, as Popper and others have argued.  

Perhaps we ought not to dismiss so quickly the ability of AI ever to become genuinely creative. Might the writing really be on the wall for researchers, in some fields at least? But it must be asked: should an academic publisher be accelerating this process?

Another issue concerns the fact that Informa did not even tell authors about the deal, never mind consult them on it: it was first reported (somewhat cryptically) in a market-focused press release in May, and was picked up by several newspapers. What does this tell us about the attitudes of large publishers? The implication is that academic authors are merely content providers and that companies have a free hand to do whatever they wish with that content. In other words, what is involved is simply a market relationship that is to be exploited as effectively as possible.  

Finally, there is the question of whether Informa is legally entitled to use academic material in this way. That could be true as regards journal articles, where authors have been forced to sign away their copyright. The case of books, particularly those published before the development of LLMs, is less clear. According to Informa, since even early contracts give it rights to publish, sell, distribute and license the published content, this covers the proposed new use. However, whether that is the case could probably only be decided in court. 

As for the suggestion that authors will receive enhanced royalties, it is not clear how this would occur or who would gain. Either way, the key question remains: why would improving the performance of LLMs be regarded as desirable from an academic point of view?

This software can perhaps serve as a labour-saving tool, but are the problems it causes worth its benefits? And who faces those costs, and who gets the benefits? In the case of deals with big tech to allow LLM training, I suggest that the answers to those questions are obvious.

Martyn Hammersley is emeritus professor of educational and social research at the Open University

**********

No hay comentarios:

Publicar un comentario

DOAJ ante la crisis de credibilidad de las revistas académicas

Publicado en The Scholarly Kitchen https://scholarlykitchen.sspnet.org/2024/06/06/guest-post-doajs-role-in-supporting-trust-in-scholarly-jo...