Mostrando entradas con la etiqueta IA Anthropic. Mostrar todas las entradas
Mostrando entradas con la etiqueta IA Anthropic. Mostrar todas las entradas

lunes, 2 de marzo de 2026

U.S.A.: Anthropic rechaza el uso militar del chatbot Claude que exige el Pentágono

Publicado en El Universal
https://www.eluniversal.com.mx/mundo/trump-ordena-dejar-de-usar-inmediatamente-ia-de-anthropic-empresa-rechaza-autorizar-uso-militar-incondicional/




Trump ordena dejar de usar "inmediatamente" IA de Anthropic;
empresa rechaza autorizar uso militar incondicional

A través de su plataforma Truth Social, el Presidente de EU aseguró "que no la necesitan y no la queremos"

El presidente Donald Trump ordenó el viernes al gobierno de Estados Unidos dejar de usar "inmediatamente" la inteligencia artificial de Anthropic, luego de que la empresa rechazara la exigencia del Pentágono de autorizar el uso militar incondicional de sus modelos Claude.

"Estoy ordenando A TODAS las agencias federales del gobierno de Estados Unidos que CESEN INMEDIATAMENTE todo el uso de la tecnología de Anthropic. No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos", escribió Trump en su plataforma Truth Social.

//////////////////////////////////

Publicado en La Jornada
https://www.jornada.com.mx/2026/02/27/mundo/025n2mun#:~:text=La%20Jornada%3A%20Firma%20de%20IA,uso%20amplio%E2%80%9D%20de%20su%20tecnolog%C3%ADa&text=Washington.,m%C3%A1s%20amplio%20de%20su%20tecnolog%C3%ADa.

Firma de IA niega al Pentágono “uso amplio” de su tecnología


Amenaza EU con asumir la autoridad de la compañía

Ap
 
Periódico La Jornada
Viernes 27 de febrero de 2026, p. 25

Washington. El director general de Anthropic, Dario Amodei, indicó ayer que la empresa de inteligencia artificial “no puede, en conciencia, acceder” a las exigencias del Pentágono para permitir un uso más amplio de su tecnología.

La compañía señaló en un comunicado que no se retiran de la negociación, pero que el nuevo lenguaje contractual recibido del Departamento de Guerra “prácticamente no avanzó nada en impedir el uso (del chatbot) Claude para la vigilancia masiva de estadunidenses o en armas totalmente autónomas”.

El principal portavoz del Pentágono, Sean Parnell, ha reiterado que las fuerzas armadas quieren usar la tecnología de inteligencia artificial de Anthropic de maneras legales y que no permitirán que la empresa imponga ningún límite antes de que hoy venza el plazo para aceptar sus exigencias.

Sean Parnell escribió ayer en redes sociales que el Pentágono “no tiene ningún interés en usar la IA para realizar vigilancia masiva de estadunidenses (lo cual es ilegal), ni queremos usarla para desarrollar armas autónomas que operen sin participación humana”.

Las políticas de Anthropic impiden que sus modelos, como su chatbot Claude, se utilicen con esos fines. Es la más reciente entre sus pares –el Pentágono también tiene contratos con Google, OpenAI y xAI de Elon Musk– en no suministrar su tecnología a una nueva red militar interna de Estados Unidos.

Parnell indicó que el Pentágono quiere “usar el modelo de Anthropic para todos los fines lícitos”, pero no ofreció detalles sobre lo que eso implica. Sostuvo que abrir el uso de la tecnología evitaría que la empresa “ponga en riesgo operaciones militares cruciales”.

“No permitiremos que ninguna compañía dicte los términos sobre cómo tomamos decisiones operativas”, manifestó.

Durante una reunión el martes entre el secretario de Guerra, Pete Hegseth, y Amodei, funcionarios militares advirtieron que podrían designar a Anthropic como un riesgo para la cadena de suministro, cancelar su contrato o invocar una norma de la era de la guerra fría, llamada ley de producción para la defensa, con el fin de otorgar a las fuerzas armadas una autoridad más amplia para usar sus productos, incluso si la empresa no lo aprueba.

El senador republicano Thom Tillis, que no busca la relección, expresó el jueves que el Pentágono ha manejado el asunto de manera poco profesional, mientras Anthropic está “tratando de hacer lo más que puede para ayudarnos a protegernos de nosotros mismos”.

“¿Por qué demonios estamos teniendo esta discusión en público?”, enfatizó Tillis a los periodistas. “Esta no es la forma de tratar a un proveedor estratégico que tiene contratos”.

El senador Mark Warner, el demócrata de mayor rango en el Comité de Inteligencia del Senado, expresó que estaba “profundamente perturbado” por los reportes de que el Pentágono está “trabajando para intimidar a una empresa líder de Estados Unidos”.

Mientras funcionarios del Pentágono aseguran que siempre cumplirán la ley en la utilización de modelos de IA, Hegseth recalcó a Fox News en febrero pasado –semanas después de convertirse en secretario de Defensa– que “en última instancia queremos abogados que den un asesoramiento constitucional sólido y que no intenten ser obstáculos de nada”.



jueves, 20 de noviembre de 2025

[ IA vs Derechos de autor ] IA Anthropic pierde demanda por infracción de derechos de autor

Publicado en Chemistry World
https://www.chemistryworld.com/news/ai-company-will-pay-authors-15-billion-in-damages-after-using-their-copyrighted-works-to-train-its-models/4022331.article?utm_source=cw_weekly&utm_medium=email&utm_campaign=cw_newsletters 



Una empresa de IA pagará 1,500 millones de dólares en concepto de daños y perjuicios a los autores tras utilizar sus obras protegidas por derechos de autor para entrenar sus modelos


Por Dalmeet Singh Chawla

21 de octubre de 2025



La empresa estadounidense de IA Anthropic ha llegado a un acuerdo sin precedentes con los autores de los libros que utilizó para entrenar sus modelos sin obtener permiso previo.


Según el acuerdo, anunciado a finales de septiembre, Anthropic deberá pagar a los autores de los libros, incluidos los académicos, 1,500 millones de dólares (1,100 millones de libras esterlinas) tras descargar sus obras de los sitios web piratas LibGen y Pirate Library Mirror (PiLiMi) para entrenar sus modelos de IA.


Aunque Anthropic, que produjo la familia Claude de modelos de lenguaje grandes (LLM), descargó supuestamente alrededor de 7 millones de libros para entrenar sus modelos de IA, solo se compensará a los autores de alrededor de medio millón de libros.


Esto se debe a que sus títulos cumplen los criterios de haber sido descargados por LibGen o PiLiMi, tener números ISSN o ASIN válidos y haber sido registrados en la Oficina de Derechos de Autor de EE. UU. en los tres meses siguientes a su publicación o antes de que Anthropic los descargara.


Es probable que los titulares de los derechos tengan derecho a recibir alrededor de 3,000 dólares por título, y pueden buscar sus libros en la lista de obras elegibles y presentar una reclamación.


Los fondos no reclamados se dividirán y se enviarán de nuevo a aquellos autores que hayan presentado reclamaciones en proporción a lo que ya hayan recibido, afirma Mary Rasenberger, directora ejecutiva de Authors Guild, una asociación con sede en Nueva York que defiende los intereses de los escritores y que ayudó a los abogados que trabajaban en el caso a elaborar un formulario de reclamación. « Pero si el dinero restante es demasiado pequeño para que merezca la pena distribuirlo, entonces se podrá entregar a un destinatario seleccionado por el abogado del demandante para ayudar a los autores en general (normalmente una organización sin ánimo de lucro)», afirma Rasenberger.


La Authors Guild es parte demandante en un juicio por infracción de derechos de autor contra OpenAI, la empresa que creó ChatGPT, en el Distrito Sur de Nueva York. Hay varios juicios más en curso contra empresas de IA por presunta infracción de derechos de autor. 


«Parece bastante probable que Anthropic no fuera la única en utilizar material pirateado para entrenar su modelo», añade Dylan Ruediger, director de la empresa de investigación Ithaka S+R, una organización sin ánimo de lucro con sede en Nueva York que el año pasado lanzó una herramienta que rastrea los acuerdos entre editoriales académicas y empresas de IA que permiten a los LLM entrenarse con artículos y datos académicos.


Aunque muchas editoriales académicas ya han firmado acuerdos con empresas de IA, las organizaciones que representan a los investigadores están presionando para que los académicos y otros autores reciban una remuneración cuando los LLM utilicen sus trabajos. Sin embargo, según Ruediger, aún queda mucho camino por recorrer para lograr claridad jurídica en materia de LLM.


Aunque la demanda de Anthropic se centra en los libros, es probable que también se estén utilizando otros contenidos académicos pirateados, como artículos de investigación, para entrenar modelos de IA, afirma Ruediger.


«El importe del acuerdo en sí mismo y de los daños y perjuicios que Anthropic pretendía evitar son indicadores muy claros del interés mutuo que tienen los editores —académicos y de otro tipo— y los LLM comerciales en crear algún tipo de estructura de licencias para este material», añade Ruediger.


Como parte del acuerdo actual, Anthropic ha aceptado destruir todas las copias de libros pirateados que obran en su poder, explica Rasenberger. «El acuerdo no aborda la conducta futura, ya que se refiere a infracciones pasadas, pero obligará a Anthropic a adquirir nuevos libros de forma legal», señala Rasenberger. «Sería demasiado fácil presentar otra demanda colectiva si volvieran a hacerlo en el futuro».


Chemistry World se puso en contacto con Anthropic para recabar sus comentarios.


///////////////////////////////////////////


AI company will pay authors $1.5 billion in damages after using their copyrighted works to train its models

By Dalmeet Singh Chawla
21 October 2025

US-based AI company Anthropic has reached a first-of-its-kind settlement with authors of books that it used to train its models without obtaining prior permission.

Under the settlement, announced at the end of September, Anthropic must pay the authors of books – including academic ones – $1.5 billion (£1.1 billion) after downloading their works from the pirate websites LibGen and Pirate Library Mirror (PiLiMi) to train its AI models.

Although Anthropic, which produced the Claude family of large language models (LLMs), reportedly downloaded around 7 million books to train its AI models, authors of only around half a million books will be compensated.

That’s because their titles meet the criteria of being downloaded by LibGen or PiLiMi, having valid ISSN or ASIN numbers, and having been registered with the US Copyright Office within three months of publication or before they were downloaded by Anthropic.

Rightsholders are likely to be eligible for around $3000 per title, and can search their books on the eligible works list and file a claim.  

Unclaimed funds will be divided up and sent out again to those authors who have made claims in proportion to what they already received, says Mary Rasenberger, chief executive officer of the New York-based Authors Guild, an advocacy group for writers that helped lawyers working on the case to develop a claim form. ‘But if the leftover money is too small to make a distribution worthwhile, then it may be given to a recipient selected by plaintiff’s counsel to aid authors broadly (typically a not-for-profit),’ Rasenberger says.

The Authors Guild is a plaintiff in a copyright infringement lawsuit against OpenAI, the firm that created ChatGPT, in the Southern District of New York. Several other lawsuits against AI companies are underway, alleging copyright infringement.

‘It seems pretty likely that Anthropic was not alone in using pirated material to train its model,’ adds Dylan Ruediger, principal for the research enterprise at Ithaka S+R, a New York-based nonprofit that last year launched a tool that tracks deals between scholarly publishers and AI firms that allow LLMs to train on academic papers and data.

While many scholarly publishers have already signed deals with AI companies, organisations representing researchers are pushing for academics and other authors to be paid when LLMs use their work. Still, Ruediger says, legal clarity on LLMs remains a long way off.

Although the Anthropic lawsuit is focused on books, it’s likely that other pirated academic content, including research papers, are also being used to train AI models, Ruediger says.  

‘The size of the settlement itself, and of the damages that Anthropic was seeking to avoid, are really good indicators of a mutual interest between publishers – academic and otherwise – and the commercial LLMs in creating some kind of licensing structure for this material,’ Ruediger adds.

As part of the present settlement, Anthropic has agreed to destroy all copies of pirated books in its possession, Rasenberger explains. ‘The settlement does not address future conduct because it is about past infringement but it will push Anthropic to acquire new books legally,’ Rasenberger notes. ‘It would be too easy to bring another class action suit if they were to [fail to] do so again in the future.’

Chemistry World reached out to Anthropic for a comment.

U.S.A.: Anthropic rechaza el uso militar del chatbot Claude que exige el Pentágono

Publicado en  El Universal https://www.eluniversal.com.mx/mundo/trump-ordena-dejar-de-usar-inmediatamente-ia-de-anthropic-empresa-rechaza-au...