Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas
Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas

jueves, 27 de noviembre de 2025

BRASIL: Lula da Silva critica en el G20 la concentración tecnológica y pide gobernanza de la IA

Publicado en dplnews
https://dplnews.com/lula-da-silva-critica-g20-concentracion-tecnologica-y-pide-gobernanza-de-ia/


Lula da Silva critica en el G20 la concentración tecnológica y pide gobernanza de la IA


⁨Mayara Figueiredo
Nov 25, 2025

Durante su discurso en la Cumbre del G20, en Johannesburgo, el presidente de Brasil, Luiz Inácio Lula da Silva, volvió a criticar la concentración global de tecnología y defendió una mayor autonomía digital para los países en desarrollo. El mandatario afirmó que el control de datos, algoritmos e infraestructura por parte de las grandes economías profundiza las desigualdades y puede configurar un “colonialismo digital”.

En el ámbito de la Inteligencia Artificial (IA), Lula habló sobre la desigualdad digital: señaló que 2.6 mil millones de personas aún no tienen acceso al mundo digital y que existe una concentración de poder en algoritmos, datos e infraestructura, lo que puede hacer que la innovación sea excluyente.

Defendió una gobernanza global de la Inteligencia Artificial con la ONU como eje del debate. Según el mandatario, la tecnología debe estar vinculada a los derechos humanos y laborales. “Cada panel solar, cada chip, cada línea de código debe llevar la marca de la inclusión social”, aseveró.

El presidente también relacionó la IA y con el trabajo: destacó que cerca del 40% de la fuerza laboral mundial desempeña funciones altamente expuestas a la automatización o a la complementación tecnológica, y argumentó que su uso debe proteger a los trabajadores.

****************************

Mayara Figueiredo 
Repórter e correspondente no Brasil
Jornalista, trabalhou na cobertura de diversos temas como educação, cultura e tecnologia. Atualmente escreve sobre políticas públicas, regulação e os mercados de telecomunicações e tecnologia com foco no Brasil.


domingo, 23 de noviembre de 2025

MÉXICO IA+ busca impulsar la soberanía tecnológica de México

Publicado en El Economista
https://www.eleconomista.com.mx/tecnologia/mexico-ia-busca-impulsar-soberania-tecnologica-mexico-20251003-779948.html




México IA+ busca impulsar la soberanía tecnológica de México

El proyecto impulsa once ejes que van de la robótica y la ciberseguridad hasta la biotecnología y el turismo 5.0, con el objetivo de articular gobierno, industria y academia en una agenda común.

Por: Rodrigo Riquelme

Publicado: 03.10.2025 - Actualizado: 03.10.2025 

México IA+ Inversión Acelerada busca articular a gobierno, industria, academia y sociedad civil en torno a un objetivo: que el país desarrolle y controle su propia infraestructura y capacidades de inteligencia artificial, sin depender de tecnologías externas. 

El proyecto nace de conversaciones con la compañía estadounidense de semiconductores NVIDIA y de la firma del programa global Sovereign AI, que busca un aliado estratégico local por país para construir ecosistemas nacionales de IA. En México, Cipre Holding fue seleccionado como socio para liderar esta agenda.

La premisa del evento es convertir la soberanía de la IA en política pública, infraestructura y talento. No se trata de importar algoritmos, sino de crear datos, centros de cómputo, estándares, marcos éticos y capacidades humanas con sello mexicano.

“Sin duda hoy la inteligencia artificial es el nuevo motor de poder global y México debe decidir si quiere ser espectador o protagonista y la única manera de ser protagonista es realmente también generando nuestra propia tecnología y no depender de países externos”, dijo Jessica Peña, directora de México IA+ Inversión Acelerada en entrevista.

México IA+ plantea once ejes estratégicos para organizar el esfuerzo nacional. Entre ellos están IA y robótica; infraestructura soberana y ciberseguridad; energía verde; electromovilidad; gobernanza digital; economía circular; logística inteligente; agrotech y foodtech; salud digital y biotecnología; y turismo 5.0. La intención es que cada vertical conecte problemas públicos, proyectos empresariales y formación de talento.

El evento reunirá contenidos y expertos de Europa, Estados Unidos y México, con la presencia del board de NVIDIA, líderes del CCE y autoridades.

 La programación considera cuatro escenarios simultáneos y un escenario principal con capacidad para 5,000 asistentes. Habrá training labs y workshops técnicos, además de espacios B2B para promover inversión y nearshoring. Se esperan 25 delegaciones internacionales para vincular proyectos y capital con iniciativas mexicanas.  

 La gobernanza de los datos es otro pilar del evento. México IA+ impulsará la generación, custodia y certificación de conjuntos de datos para entrenar modelos con identidad cultural y prioridades nacionales, un paso para asegurar la calidad, seguridad y pertinencia de las soluciones.

La participación es abierta, con boletos a la venta en las modalidades académica (con descuento) y opciones para perfiles empresariales y políticos; también habrá becas y convocatorias públicas.

rodrigo.riquelme@eleconomista.mx

  

jueves, 20 de noviembre de 2025

[ IA vs Derechos de autor ] IA Anthropic pierde demanda por infracción de derechos de autor

Publicado en Chemistry World
https://www.chemistryworld.com/news/ai-company-will-pay-authors-15-billion-in-damages-after-using-their-copyrighted-works-to-train-its-models/4022331.article?utm_source=cw_weekly&utm_medium=email&utm_campaign=cw_newsletters 



Una empresa de IA pagará 1,500 millones de dólares en concepto de daños y perjuicios a los autores tras utilizar sus obras protegidas por derechos de autor para entrenar sus modelos


Por Dalmeet Singh Chawla

21 de octubre de 2025



La empresa estadounidense de IA Anthropic ha llegado a un acuerdo sin precedentes con los autores de los libros que utilizó para entrenar sus modelos sin obtener permiso previo.


Según el acuerdo, anunciado a finales de septiembre, Anthropic deberá pagar a los autores de los libros, incluidos los académicos, 1,500 millones de dólares (1,100 millones de libras esterlinas) tras descargar sus obras de los sitios web piratas LibGen y Pirate Library Mirror (PiLiMi) para entrenar sus modelos de IA.


Aunque Anthropic, que produjo la familia Claude de modelos de lenguaje grandes (LLM), descargó supuestamente alrededor de 7 millones de libros para entrenar sus modelos de IA, solo se compensará a los autores de alrededor de medio millón de libros.


Esto se debe a que sus títulos cumplen los criterios de haber sido descargados por LibGen o PiLiMi, tener números ISSN o ASIN válidos y haber sido registrados en la Oficina de Derechos de Autor de EE. UU. en los tres meses siguientes a su publicación o antes de que Anthropic los descargara.


Es probable que los titulares de los derechos tengan derecho a recibir alrededor de 3,000 dólares por título, y pueden buscar sus libros en la lista de obras elegibles y presentar una reclamación.


Los fondos no reclamados se dividirán y se enviarán de nuevo a aquellos autores que hayan presentado reclamaciones en proporción a lo que ya hayan recibido, afirma Mary Rasenberger, directora ejecutiva de Authors Guild, una asociación con sede en Nueva York que defiende los intereses de los escritores y que ayudó a los abogados que trabajaban en el caso a elaborar un formulario de reclamación. « Pero si el dinero restante es demasiado pequeño para que merezca la pena distribuirlo, entonces se podrá entregar a un destinatario seleccionado por el abogado del demandante para ayudar a los autores en general (normalmente una organización sin ánimo de lucro)», afirma Rasenberger.


La Authors Guild es parte demandante en un juicio por infracción de derechos de autor contra OpenAI, la empresa que creó ChatGPT, en el Distrito Sur de Nueva York. Hay varios juicios más en curso contra empresas de IA por presunta infracción de derechos de autor. 


«Parece bastante probable que Anthropic no fuera la única en utilizar material pirateado para entrenar su modelo», añade Dylan Ruediger, director de la empresa de investigación Ithaka S+R, una organización sin ánimo de lucro con sede en Nueva York que el año pasado lanzó una herramienta que rastrea los acuerdos entre editoriales académicas y empresas de IA que permiten a los LLM entrenarse con artículos y datos académicos.


Aunque muchas editoriales académicas ya han firmado acuerdos con empresas de IA, las organizaciones que representan a los investigadores están presionando para que los académicos y otros autores reciban una remuneración cuando los LLM utilicen sus trabajos. Sin embargo, según Ruediger, aún queda mucho camino por recorrer para lograr claridad jurídica en materia de LLM.


Aunque la demanda de Anthropic se centra en los libros, es probable que también se estén utilizando otros contenidos académicos pirateados, como artículos de investigación, para entrenar modelos de IA, afirma Ruediger.


«El importe del acuerdo en sí mismo y de los daños y perjuicios que Anthropic pretendía evitar son indicadores muy claros del interés mutuo que tienen los editores —académicos y de otro tipo— y los LLM comerciales en crear algún tipo de estructura de licencias para este material», añade Ruediger.


Como parte del acuerdo actual, Anthropic ha aceptado destruir todas las copias de libros pirateados que obran en su poder, explica Rasenberger. «El acuerdo no aborda la conducta futura, ya que se refiere a infracciones pasadas, pero obligará a Anthropic a adquirir nuevos libros de forma legal», señala Rasenberger. «Sería demasiado fácil presentar otra demanda colectiva si volvieran a hacerlo en el futuro».


Chemistry World se puso en contacto con Anthropic para recabar sus comentarios.


///////////////////////////////////////////


AI company will pay authors $1.5 billion in damages after using their copyrighted works to train its models

By Dalmeet Singh Chawla
21 October 2025

US-based AI company Anthropic has reached a first-of-its-kind settlement with authors of books that it used to train its models without obtaining prior permission.

Under the settlement, announced at the end of September, Anthropic must pay the authors of books – including academic ones – $1.5 billion (£1.1 billion) after downloading their works from the pirate websites LibGen and Pirate Library Mirror (PiLiMi) to train its AI models.

Although Anthropic, which produced the Claude family of large language models (LLMs), reportedly downloaded around 7 million books to train its AI models, authors of only around half a million books will be compensated.

That’s because their titles meet the criteria of being downloaded by LibGen or PiLiMi, having valid ISSN or ASIN numbers, and having been registered with the US Copyright Office within three months of publication or before they were downloaded by Anthropic.

Rightsholders are likely to be eligible for around $3000 per title, and can search their books on the eligible works list and file a claim.  

Unclaimed funds will be divided up and sent out again to those authors who have made claims in proportion to what they already received, says Mary Rasenberger, chief executive officer of the New York-based Authors Guild, an advocacy group for writers that helped lawyers working on the case to develop a claim form. ‘But if the leftover money is too small to make a distribution worthwhile, then it may be given to a recipient selected by plaintiff’s counsel to aid authors broadly (typically a not-for-profit),’ Rasenberger says.

The Authors Guild is a plaintiff in a copyright infringement lawsuit against OpenAI, the firm that created ChatGPT, in the Southern District of New York. Several other lawsuits against AI companies are underway, alleging copyright infringement.

‘It seems pretty likely that Anthropic was not alone in using pirated material to train its model,’ adds Dylan Ruediger, principal for the research enterprise at Ithaka S+R, a New York-based nonprofit that last year launched a tool that tracks deals between scholarly publishers and AI firms that allow LLMs to train on academic papers and data.

While many scholarly publishers have already signed deals with AI companies, organisations representing researchers are pushing for academics and other authors to be paid when LLMs use their work. Still, Ruediger says, legal clarity on LLMs remains a long way off.

Although the Anthropic lawsuit is focused on books, it’s likely that other pirated academic content, including research papers, are also being used to train AI models, Ruediger says.  

‘The size of the settlement itself, and of the damages that Anthropic was seeking to avoid, are really good indicators of a mutual interest between publishers – academic and otherwise – and the commercial LLMs in creating some kind of licensing structure for this material,’ Ruediger adds.

As part of the present settlement, Anthropic has agreed to destroy all copies of pirated books in its possession, Rasenberger explains. ‘The settlement does not address future conduct because it is about past infringement but it will push Anthropic to acquire new books legally,’ Rasenberger notes. ‘It would be too easy to bring another class action suit if they were to [fail to] do so again in the future.’

Chemistry World reached out to Anthropic for a comment.

Agenda 2030/ODS: Nadie puede servir a dos señores. Dinero para alinearse con la moda o investigación crítica e independiente

Publicado en Univer sí dad. Una conversación pública sobre la universidad https://www.universidadsi.es/nadie-puede-servir-a-dos-senores/ Nad...