Mostrando entradas con la etiqueta Routledge. Mostrar todas las entradas
Mostrando entradas con la etiqueta Routledge. Mostrar todas las entradas

lunes, 20 de enero de 2025

Permitir que las Big Tech entrenen a las IA en la producción académica solo exacerbará la amenaza que supone para la docencia y la investigación, afirma Martyn Hammersley

Publicado en THE Times Higher Education
https://www.timeshighereducation.com/opinion/publishers-must-not-feed-machine-munching-through-academy 



Permitir que las Big Tech entrenen a las IA en la producción académica solo exacerbará la amenaza que supone para la docencia y la investigación, afirma Martyn Hammersley


26 de septiembre de 2024

Martyn Hammersley


El polémico acuerdo de Informa que permite utilizar artículos y libros académicos para entrenar los sistemas de inteligencia artificial de Microsoft plantea interrogantes sobre las responsabilidades de las editoriales académicas, sus relaciones con los autores y sus derechos legales sobre el contenido de lo que publican. Y es probable que estos interrogantes adquieran mayor relevancia a medida que, desafiando las quejas de los autores, las editoriales sigan adelante con otros acuerdos similares. 


Según Informa, propietaria de Taylor and Francis, Routledge y otros sellos académicos, el acuerdo «ampliará el uso de la IA dentro de nuestro negocio y subraya el valor único de nuestra propiedad intelectual»; se espera que sus «ingresos totales de la asociación de IA» superen los 75 millones de dólares en 2024. Supongo que no debería sorprendernos este deseo de explotar aún más el material académico que controla la empresa. Pero, ¿cómo encaja este acuerdo con la afirmación de Informa de que sus responsabilidades con los autores académicos son fundamentales? 


Los grandes modelos lingüísticos (LLM) ya están haciendo estragos en el mundo académico de varias maneras. La más obvia es que están causando considerables dificultades en la evaluación del trabajo de los estudiantes. Un ensayo elaborado con la ayuda de un LLM dice mucho más de las capacidades del software que de las del estudiante. Mejorar el rendimiento de los LLM empeorará el problema, porque será aún más difícil distinguir los ensayos escritos por bots de los escritos por humanos. ¿Quizás en el futuro los títulos deberían concederse a los desarrolladores de software en lugar de a los estudiantes?


Por supuesto, actualmente se dedican muchos esfuerzos a encontrar modos de evaluación que eviten el problema y a educar a estudiantes y académicos sobre cómo emplear la tecnología de forma responsable en la enseñanza y el aprendizaje. Incluso hay quienes ven con buenos ojos el papel de la IA. Sin embargo, a menudo parece que se trata simplemente de aceptar lo que se considera inevitable; tal optimismo es difícil de cuadrar con lo que está ocurriendo realmente sobre el terreno. 


Cuestiones similares se plantean en el contexto de la investigación, con un debate cada vez más intenso sobre cómo se utilizan -y podrían utilizarse- los LLM para elaborar artículos de revistas y libros. Aquí surgen cuestiones interesantes sobre la relación entre la investigación y la escritura. Algunos científicos sociales sostienen desde hace tiempo que son más o menos equivalentes: que, como dijo la socióloga Laurel Richardson hace muchos años, «la escritura es un método de investigación». Si esto es cierto, quizá la IA pueda tomar el relevo, sobre todo en las humanidades y las ciencias sociales, si éstas son «ciencias parlantes», como afirmó en su día otro sociólogo, Harold Garfinkel, basándose en que sus practicantes se dedican simplemente a «empujar palabras».


Sin embargo, si bien es cierto que en estos campos se publican demasiados trabajos de investigación en los que no se utilizan las palabras, no es así en todos los casos. Y, aunque lo fuera, podríamos preguntarnos si los programas de IA pueden utilizar las palabras con la misma eficacia que los humanos para desarrollar nuevos análisis empíricos y teorías. ¿No se limitan los LLM a reordenar y reformular lo que han masticado? Puede que sean capaces de resumir un artículo con eficacia, pero ¿pueden elaborar una crítica perspicaz del mismo? Esto es, sin duda, esencial si el conocimiento se desarrolla a través de la crítica, como han defendido Popper y otros.


Quizá no debamos descartar tan rápidamente la capacidad de la IA para llegar a ser realmente creativa. ¿Es posible que, al menos en algunos campos, los investigadores ya no tengan nada que hacer? Pero cabe preguntarse: ¿debería una editorial académica acelerar este proceso?


Otra cuestión es que Informa ni siquiera informó a los autores del acuerdo, y mucho menos les consultó al respecto: se informó por primera vez (de forma un tanto críptica) en un comunicado de prensa centrado en el mercado en mayo, y varios periódicos se hicieron eco de la noticia. ¿Qué nos dice esto sobre la actitud de las grandes editoriales? La implicación es que los autores académicos son meros proveedores de contenidos y que las empresas tienen vía libre para hacer lo que quieran con esos contenidos. En otras palabras, se trata simplemente de una relación de mercado que hay que explotar de la manera más eficaz posible. 


Por último, está la cuestión de si Informa tiene derecho legal a utilizar material académico de esta manera. Esto podría ser cierto en el caso de los artículos de revistas, cuyos autores se han visto obligados a ceder sus derechos de autor. El caso de los libros, especialmente los publicados antes del desarrollo de los LLM, está menos claro. Según Informa, dado que incluso los primeros contratos le otorgan derechos de publicación, venta, distribución y licencia del contenido publicado, esto cubre el nuevo uso propuesto. Sin embargo, probablemente sólo los tribunales puedan decidir si esto es así. 


En cuanto a la sugerencia de que los autores recibirán mayores regalías, no está claro cómo ocurriría ni quién saldría ganando. En cualquier caso, la pregunta clave sigue siendo: ¿por qué mejorar el rendimiento de los LLM se considera deseable desde un punto de vista académico?


Tal vez este software pueda servir para ahorrar trabajo, pero ¿merecen la pena los problemas que causa? ¿Y quién afronta esos costes y quién obtiene los beneficios? En el caso de los acuerdos con las grandes tecnológicas para permitir la formación LLM, sugiero que las respuestas a estas preguntas son obvias.


Martyn Hammersley es catedrático emérito de investigación educativa y social en la Open University.


*******************************

Allowing Big Tech to train AIs on academic output will only exacerbate the threat posed to teaching and research, says Martyn Hammersley

September 26, 2024

Martyn Hammersley


Informa’s controversial deal allowing academic articles and books to be used to train Microsoft’s AI systems raises questions about academic publishers' responsibilities, relationships with authors and legal rights regarding the content of what they publish. And those questions are only likely to become more salient as, in defiance of complaints from authors, publishers press ahead with further similar deals.  

According to Informa, which owns Taylor and Francis, Routledge and other academic imprints, the deal “will extend the use of AI within our business and underlines the unique value of our Intellectual Property”; its “total AI partnership revenues” are expected to be “over $75m in 2024”. We should not be surprised by this desire to further exploit the academic material the company controls, I suppose. But how does this deal square with Informa’s claim that its responsibilities to academic authors are central?  

Large language models (LLMs) are already munching through the academy in various ways. Most obviously, they are causing considerable difficulties in the assessment of student work. An essay produced with the help of an LLM says much more about the software’s capabilities than about those of the student. Improving the performance of LLMs will make that problem worse because it will be even harder to distinguish bot-written essays from human-written ones. Perhaps degrees should be awarded to the software developers rather than to the students in future?  

Of course, much effort is currently being devoted to finding modes of assessment that avoid the problem and to educating students and academics in how to employ the technology responsibly in teaching and learning. There are even those who view the role of AI positively. However, this often seems to be a matter of simply accepting what is regarded as inevitable; such optimism is hard to square with what is actually happening at ground level.   

Similar issues arise in the context of research, with increasing discussion of how LLMs are being – and could be – used to produce journal articles and books. Here, interesting issues arise about the relationship between enquiry and writing. Some social scientists have long argued that these are more or less equivalent: that, as sociologist Laurel Richardson put it many years ago, “writing is a method of inquiry”. If that is true, perhaps AI can simply take over, especially in the humanities and social sciences – if these are “talking sciences”, as another sociologist, Harold Garfinkel, once claimed, on the grounds that their practitioners are engaged in simply “shoving words around”.  

But while shoving words around may be a fair description of too much published research in those fields, it is far from universally true. And, even if it were, we might ask whether AI programs can shove words around as effectively as humans, to develop new empirical analyses and theories. Do LLMs not merely reorder and reformulate what they have munched their way through? They may be able to summarise an article effectively, but can they produce an insightful critique of it? This is surely essential if knowledge develops through criticism, as Popper and others have argued.  

Perhaps we ought not to dismiss so quickly the ability of AI ever to become genuinely creative. Might the writing really be on the wall for researchers, in some fields at least? But it must be asked: should an academic publisher be accelerating this process?

Another issue concerns the fact that Informa did not even tell authors about the deal, never mind consult them on it: it was first reported (somewhat cryptically) in a market-focused press release in May, and was picked up by several newspapers. What does this tell us about the attitudes of large publishers? The implication is that academic authors are merely content providers and that companies have a free hand to do whatever they wish with that content. In other words, what is involved is simply a market relationship that is to be exploited as effectively as possible.  

Finally, there is the question of whether Informa is legally entitled to use academic material in this way. That could be true as regards journal articles, where authors have been forced to sign away their copyright. The case of books, particularly those published before the development of LLMs, is less clear. According to Informa, since even early contracts give it rights to publish, sell, distribute and license the published content, this covers the proposed new use. However, whether that is the case could probably only be decided in court. 

As for the suggestion that authors will receive enhanced royalties, it is not clear how this would occur or who would gain. Either way, the key question remains: why would improving the performance of LLMs be regarded as desirable from an academic point of view?

This software can perhaps serve as a labour-saving tool, but are the problems it causes worth its benefits? And who faces those costs, and who gets the benefits? In the case of deals with big tech to allow LLM training, I suggest that the answers to those questions are obvious.

Martyn Hammersley is emeritus professor of educational and social research at the Open University

**********

jueves, 25 de julio de 2024

Algunos investigadores ‘sorprendidos’ de que Taylor & Francis haya vendido el acceso a sus investigaciones a Microsoft AI

Publicado en blog Universo Abierto
https://universoabierto.org/2024/07/23/algunos-investigadores-sorprendidos-de-que-taylor-francis-vende-el-acceso-a-sus-investigaciones-a-microsoft-ai/



Algunos investigadores ‘sorprendidos’ de que Taylor & Francis haya vendido el acceso a sus investigaciones a Microsoft AI

Battersby, Matilda. «Academic Authors “shocked” after Taylor & Francis Sells Access to Their Research to Microsoft AI». The Bookseller. Accedido 23 de julio de 2024. https://www.thebookseller.com/news/academic-authors-shocked-after-taylor–francis-sells-access-to-their-research-to-microsoft-ai.

Autores académicos han expresado su sorpresa al enterarse de que la editorial Taylor & Francis, propietaria de Routledge, vendió acceso a las investigaciones de sus autores como parte de una colaboración con Microsoft en inteligencia artificial (IA), en un acuerdo valorado en casi 8 millones de libras (10 millones de $) en su primer año. La sociedad de autores ha mostrado preocupación por esta situación y destacó la falta de consulta con los autores antes de firmar el acuerdo.

La Dra. Ruth Alison Clemens, una académica publicada por Taylor & Francis y Routledge, dijo que los autores no fueron informados sobre el acuerdo de IA y no tuvieron la oportunidad de optar por no participar. Clemens se enteró del trato por casualidad y expresó su sorpresa por la falta de comunicación al respecto.

Un portavoz de Taylor & Francis confirmó el acuerdo, indicando que proporciona a Microsoft acceso no exclusivo a contenido avanzado y datos para mejorar los sistemas de IA. El acuerdo, detallado por Informa, la empresa matriz de Taylor & Francis, en una actualización comercial en mayo, estipula un pago inicial de $10 millones por acceso a los datos, con pagos recurrentes no especificados en los tres años siguientes.

Taylor & Francis afirmó que protege la integridad del trabajo de los autores y los derechos de recibir pagos de regalías conforme a los contratos de autor. Sin embargo, no quedó claro si existe una política de exclusión para los autores en este acuerdo.

La comunidad académica ha mostrado una fuerte preocupación, destacando la necesidad de considerar cuestiones de derechos de autor, derechos morales y protección de datos. The Society of Authors (SoA) instó a los autores que descubran que su trabajo ha sido utilizado sin su consentimiento a contactarlos para recibir orientación.

Barbara Hayes, directora ejecutiva de ALCS, enfatizó la importancia de representar plenamente los intereses y derechos de los autores en estas negociaciones, una etapa que a menudo falta en los acuerdos actuales.

A principios de esta semana, el Copyright Clearance Centre anunció la disponibilidad de los derechos de reutilización de la IA dentro de su  Annual Copyright License (ACL), que, según afirma, es «la primera solución colectiva de concesión de licencias para el uso interno de materiales protegidos por derechos de autor en sistemas de IA». La licencia proporcionará a los titulares derechos y remuneración por los nuevos usos de sus contenidos.

U.S.A.: Comienza Donald Trump a desmantelar la educación

Publicado en  La Jornada https://www.jornada.com.mx/2025/03/21/mundo/020n1mun     Busca ahorrar e imponer ideología de derecha Comienza Dona...