Mostrando entradas con la etiqueta IA Anthropic. Mostrar todas las entradas
Mostrando entradas con la etiqueta IA Anthropic. Mostrar todas las entradas

jueves, 20 de noviembre de 2025

[ IA vs Derechos de autor ] IA Anthropic pierde demanda por infracción de derechos de autor

Publicado en Chemistry World
https://www.chemistryworld.com/news/ai-company-will-pay-authors-15-billion-in-damages-after-using-their-copyrighted-works-to-train-its-models/4022331.article?utm_source=cw_weekly&utm_medium=email&utm_campaign=cw_newsletters 



Una empresa de IA pagará 1,500 millones de dólares en concepto de daños y perjuicios a los autores tras utilizar sus obras protegidas por derechos de autor para entrenar sus modelos


Por Dalmeet Singh Chawla

21 de octubre de 2025



La empresa estadounidense de IA Anthropic ha llegado a un acuerdo sin precedentes con los autores de los libros que utilizó para entrenar sus modelos sin obtener permiso previo.


Según el acuerdo, anunciado a finales de septiembre, Anthropic deberá pagar a los autores de los libros, incluidos los académicos, 1,500 millones de dólares (1,100 millones de libras esterlinas) tras descargar sus obras de los sitios web piratas LibGen y Pirate Library Mirror (PiLiMi) para entrenar sus modelos de IA.


Aunque Anthropic, que produjo la familia Claude de modelos de lenguaje grandes (LLM), descargó supuestamente alrededor de 7 millones de libros para entrenar sus modelos de IA, solo se compensará a los autores de alrededor de medio millón de libros.


Esto se debe a que sus títulos cumplen los criterios de haber sido descargados por LibGen o PiLiMi, tener números ISSN o ASIN válidos y haber sido registrados en la Oficina de Derechos de Autor de EE. UU. en los tres meses siguientes a su publicación o antes de que Anthropic los descargara.


Es probable que los titulares de los derechos tengan derecho a recibir alrededor de 3,000 dólares por título, y pueden buscar sus libros en la lista de obras elegibles y presentar una reclamación.


Los fondos no reclamados se dividirán y se enviarán de nuevo a aquellos autores que hayan presentado reclamaciones en proporción a lo que ya hayan recibido, afirma Mary Rasenberger, directora ejecutiva de Authors Guild, una asociación con sede en Nueva York que defiende los intereses de los escritores y que ayudó a los abogados que trabajaban en el caso a elaborar un formulario de reclamación. « Pero si el dinero restante es demasiado pequeño para que merezca la pena distribuirlo, entonces se podrá entregar a un destinatario seleccionado por el abogado del demandante para ayudar a los autores en general (normalmente una organización sin ánimo de lucro)», afirma Rasenberger.


La Authors Guild es parte demandante en un juicio por infracción de derechos de autor contra OpenAI, la empresa que creó ChatGPT, en el Distrito Sur de Nueva York. Hay varios juicios más en curso contra empresas de IA por presunta infracción de derechos de autor. 


«Parece bastante probable que Anthropic no fuera la única en utilizar material pirateado para entrenar su modelo», añade Dylan Ruediger, director de la empresa de investigación Ithaka S+R, una organización sin ánimo de lucro con sede en Nueva York que el año pasado lanzó una herramienta que rastrea los acuerdos entre editoriales académicas y empresas de IA que permiten a los LLM entrenarse con artículos y datos académicos.


Aunque muchas editoriales académicas ya han firmado acuerdos con empresas de IA, las organizaciones que representan a los investigadores están presionando para que los académicos y otros autores reciban una remuneración cuando los LLM utilicen sus trabajos. Sin embargo, según Ruediger, aún queda mucho camino por recorrer para lograr claridad jurídica en materia de LLM.


Aunque la demanda de Anthropic se centra en los libros, es probable que también se estén utilizando otros contenidos académicos pirateados, como artículos de investigación, para entrenar modelos de IA, afirma Ruediger.


«El importe del acuerdo en sí mismo y de los daños y perjuicios que Anthropic pretendía evitar son indicadores muy claros del interés mutuo que tienen los editores —académicos y de otro tipo— y los LLM comerciales en crear algún tipo de estructura de licencias para este material», añade Ruediger.


Como parte del acuerdo actual, Anthropic ha aceptado destruir todas las copias de libros pirateados que obran en su poder, explica Rasenberger. «El acuerdo no aborda la conducta futura, ya que se refiere a infracciones pasadas, pero obligará a Anthropic a adquirir nuevos libros de forma legal», señala Rasenberger. «Sería demasiado fácil presentar otra demanda colectiva si volvieran a hacerlo en el futuro».


Chemistry World se puso en contacto con Anthropic para recabar sus comentarios.


///////////////////////////////////////////


AI company will pay authors $1.5 billion in damages after using their copyrighted works to train its models

By Dalmeet Singh Chawla
21 October 2025

US-based AI company Anthropic has reached a first-of-its-kind settlement with authors of books that it used to train its models without obtaining prior permission.

Under the settlement, announced at the end of September, Anthropic must pay the authors of books – including academic ones – $1.5 billion (£1.1 billion) after downloading their works from the pirate websites LibGen and Pirate Library Mirror (PiLiMi) to train its AI models.

Although Anthropic, which produced the Claude family of large language models (LLMs), reportedly downloaded around 7 million books to train its AI models, authors of only around half a million books will be compensated.

That’s because their titles meet the criteria of being downloaded by LibGen or PiLiMi, having valid ISSN or ASIN numbers, and having been registered with the US Copyright Office within three months of publication or before they were downloaded by Anthropic.

Rightsholders are likely to be eligible for around $3000 per title, and can search their books on the eligible works list and file a claim.  

Unclaimed funds will be divided up and sent out again to those authors who have made claims in proportion to what they already received, says Mary Rasenberger, chief executive officer of the New York-based Authors Guild, an advocacy group for writers that helped lawyers working on the case to develop a claim form. ‘But if the leftover money is too small to make a distribution worthwhile, then it may be given to a recipient selected by plaintiff’s counsel to aid authors broadly (typically a not-for-profit),’ Rasenberger says.

The Authors Guild is a plaintiff in a copyright infringement lawsuit against OpenAI, the firm that created ChatGPT, in the Southern District of New York. Several other lawsuits against AI companies are underway, alleging copyright infringement.

‘It seems pretty likely that Anthropic was not alone in using pirated material to train its model,’ adds Dylan Ruediger, principal for the research enterprise at Ithaka S+R, a New York-based nonprofit that last year launched a tool that tracks deals between scholarly publishers and AI firms that allow LLMs to train on academic papers and data.

While many scholarly publishers have already signed deals with AI companies, organisations representing researchers are pushing for academics and other authors to be paid when LLMs use their work. Still, Ruediger says, legal clarity on LLMs remains a long way off.

Although the Anthropic lawsuit is focused on books, it’s likely that other pirated academic content, including research papers, are also being used to train AI models, Ruediger says.  

‘The size of the settlement itself, and of the damages that Anthropic was seeking to avoid, are really good indicators of a mutual interest between publishers – academic and otherwise – and the commercial LLMs in creating some kind of licensing structure for this material,’ Ruediger adds.

As part of the present settlement, Anthropic has agreed to destroy all copies of pirated books in its possession, Rasenberger explains. ‘The settlement does not address future conduct because it is about past infringement but it will push Anthropic to acquire new books legally,’ Rasenberger notes. ‘It would be too easy to bring another class action suit if they were to [fail to] do so again in the future.’

Chemistry World reached out to Anthropic for a comment.

[ IA vs Derechos de autor ] IA Anthropic pierde demanda por infracción de derechos de autor

Publicado en Chemistry World https://www.chemistryworld.com/news/ai-company-will-pay-authors-15-billion-in-damages-after-using-their-copyri...