miércoles, 4 de marzo de 2026

CHINA: la Academia China de Ciencias dejará de pagar los APC de 30 costosas revistas

Publicado en Science
https://www.science.org/content/article/major-china-funder-plans-curtail-spending-pricey-open-access-fees?utm_source=onesignal&utm_medium=webpush&utm_content=news&utm_campaign=webpush 




Una importante entidad financiadora china dejará de pagar las cuotas de 30 costosas revistas de acceso abierto


La medida se produce en medio de los esfuerzos por impulsar las revistas propias del país


24 de febrero de 2026 

Por Jeffrey Brainard


En un desafío a las editoriales de acceso abierto, la Academia China de Ciencias (CAS), la institución de investigación más grande del mundo, ha comunicado a sus investigadores que tiene previsto dejar de pagar por publicar sus artículos en docenas de revistas internacionales de lectura gratuita que considera demasiado caras. Entre las revistas de gran prestigio y elevadas tarifas afectadas se encuentran Nature Communications, Cell Reports y Science Advances.


CAS, que emplea a más de 50,000 investigadores en unos 100 institutos, aún no ha anunciado públicamente la nueva política, que se espera que entre en vigor el 1° de marzo. Los observadores afirman que probablemente su objetivo sea controlar los costes y, tal vez, impulsar las revistas científicas chinas. A pesar del silencio de la CAS, los investigadores afectados, que pidieron no ser identificados porque no estaban autorizados a hablar sobre la política, compartieron extractos de mensajes al respecto que recibieron de los directivos de sus instituciones.


Uno de esos extractos dice que el borrador de la política impediría a los científicos de la CAS utilizar los fondos de la academia para pagar los gastos de procesamiento de artículos (APC), que las editoriales cobran para que los artículos de investigación puedan leerse gratuitamente nada más publicarse, en más de 30 revistas. Según otra fuente, todas cobran al menos 5,000 dólares por artículo. A nivel mundial, el APC medio es de unos 2,000 dólares, y el umbral de costes de la CAS significa que varias revistas destacadas de acceso abierto, como PLOS One y Scientific Reports, siguen estando abiertas a los investigadores de la CAS.  


La política también les prohíbe utilizar fondos de otras fuentes del gobierno central —presumiblemente el Ministerio de Ciencia y Tecnología y la Fundación Nacional de Ciencias Naturales de China— para cubrir los APC en las revistas prohibidas. Los científicos de la CAS pueden seguir publicando en ellas siempre que dispongan de otras fuentes de financiación. También pueden publicar en revistas «híbridas» de acceso abierto, como Nature, que ofrecen tanto opciones de acceso abierto de pago como de pago, pero como el APC de esa revista es de 12,690 dólares, los autores deben publicar detrás del muro de pago, por lo que no hay ningún cargo.


Los financiadores de la ciencia en China hacen cada vez más hincapié en la eficiencia y la rendición de cuentas en sus gastos, afirma Gengyan Tang, estudiante de doctorado de la Universidad de Calgary que estudia la integridad de la investigación y las políticas editoriales de China. «Cualquier limitación en el reembolso de los APC puede entenderse dentro de [este] esfuerzo más amplio», afirma, «y no como un rechazo categórico de la publicación de acceso abierto». Desde 2019, el Gobierno ha estado llevando a cabo un plan para desarrollar 400 revistas científicas de categoría mundial como alternativas asequibles a las de los países occidentales; en 2023, el país contaba con unas 178 revistas de acceso abierto en inglés, de las cuales casi la mitad no cobraban APC, según un informe publicado ese año por las consultoras editoriales Osmanthus Consulting y Clarke & Esposito.


Sin embargo, según el análisis, los esfuerzos internos de China necesitan más tiempo para echar raíces. Mientras tanto, los investigadores del país publican cada vez más artículos de acceso abierto porque, entre otras razones, esto puede reportarles beneficios profesionales. Estos artículos pueden obtener más citas que los de acceso restringido y algunas de las revistas de acceso abierto son prestigiosas, por ejemplo. Por ahora, los ingresos por APC van principalmente a parar a las editoriales internacionales, lo que muchos en China y en otros lugares consideran una práctica insostenible que permite a algunas de las editoriales más grandes del mundo obtener beneficios excesivos.


Otras instituciones de China podrían seguir el ejemplo de la CAS. La CAS ha sido pionera en otros aspectos de la política de publicación de revistas. Por ejemplo, el instituto publica cada año una lista de revistas de alerta temprana en la que se nombran las revistas que muestran signos de mala conducta en la investigación, cobran APC elevadas o ambas cosas. La lista no es vinculante para las instituciones que no pertenecen a la CAS, pero muchas la siguen. Además de bloquear el gasto de la CAS en revistas con APC elevados, la última política también impide los gastos en otras 120 revistas que han sido señaladas por problemas de integridad en la investigación.  


La nueva política de APC de CAS podría afectar gravemente a algunas revistas de acceso abierto. En 2025, aproximadamente el 10 % de los artículos publicados en Nature Communications y Science Advances tenían un autor afiliado a CAS, y alrededor del 40 % de los artículos de cada una de ellas tenían un autor de alguna institución china, según un análisis de Science de los datos de la base de datos bibliométrica Web of Science.


Meagan Phelan, portavoz de la familia de revistas Science, afirma que la CAS no ha informado a los editores de Science Advances, que cobra una APC de 5,450 dólares, sobre la nueva política. «Los autores de China, incluidos los afiliados a instituciones de la CAS, son importantes colaboradores de Science Advances», afirma Phelan. (El personal de Science News es editorialmente independiente). 


Springer Nature, propietaria de Nature Communications, y Elsevier, cuyas participaciones incluyen Cell Reports, no hicieron comentarios de inmediato. Estas dos revistas cobran APC de 7,350 y 5,790 dólares, respectivamente. Estas editoriales han afirmado que las revistas especialmente selectivas como estas tienden a cobrar más porque rechazan la mayoría de los manuscritos enviados y las APC de los artículos aceptados deben cubrir los costes de revisión de todos ellos.


Otros países han tomado medidas para reducir el gasto en APC, aunque sus políticas no son tan restrictivas. La Fundación Alemana para la Investigación, por ejemplo, limita el reembolso de las APC, un enfoque que los Institutos Nacionales de Salud de EE. UU. están considerando adoptar. 


La nueva política de CAS puede reflejar ese movimiento, afirma la científica de la información Lin Zhang, de la Universidad de Wuhan, quien dice no haber recibido el texto. «Refleja una tensión estructural en la publicación académica mundial, ya que los sistemas de investigación de todo el mundo tratan de equilibrar las ambiciones de acceso abierto con la sostenibilidad financiera a largo plazo y la gestión responsable de los fondos públicos».



******************************************************


ScienceInsiderAsia/Pacific


Major Chinese funder to stop paying fees for 30 pricey open-access journals

Move comes amid effort to grow the country’s own journals


24 Feb 2026 

By Jeffrey Brainard


In a challenge to open-access publishers, the Chinese Academy of Sciences (CAS), the world’s largest research institution, has told its researchers it plans to stop paying to publish their papers in dozens of international free-to-read journals it regards as too expensive. High-profile, high-fee journals affected include Nature Communications, Cell Reports, and Science Advances

CAS, which employs more than 50,000 researchers across some 100 institutes, has yet to publicly announce the new policy, expected to take effect on 1 March. Observers say it is likely aimed at controlling costs and perhaps boosting China’s own journals. Despite CAS’s silence, affected researchers, who asked not to be identified because they were not authorized to speak about the policy, shared excerpts of messages about it they received from managers at their institutions.

One such excerpt says the draft policy would prevent CAS scientists from using academy funds to pay article-processing charges (APCs), which publishers charge to make research articles free to read immediately when published, for more than 30 journals. All charge at least $5000 per paper, according to another source. Globally the average APC is about $2000, and CAS’s cost threshold means a number of prominent open-access–only journals, including PLOS One and Scientific Reports, remain open to CAS researchers.  

The policy also bars them from using funds from other central government sources—presumably the Ministry of Science and Technology and the National Natural Science Foundation of China—to cover APCs in the proscribed journals. CAS scientists may continue to publish in them providing they have other funding sources. They can also publish in “hybrid” open-access journals, such as Nature, that offer both paid open-access and paywalled options, but because that journal’s APC is $12,690, authors must publish behind the paywall, for which there is no charge.

China’s science funders are increasingly emphasizing efficiency and accountability in their spending, says Gengyan Tang, a Ph.D. student at the University of Calgary who studies research integrity and China’s publishing policies. “Any limitations on APC reimbursement may be understood within [this] broader effort,” he says, and “not as a categorical rejection of open-access publishing.” Since 2019, the government has been pursuing a plan to develop 400 world-class scientific journals as affordable alternatives to ones based in Western countries; by 2023 the country had about 178 English-language open-access journals, nearly half of which charged no APC, according to a report published that year by the Osmanthus Consulting and Clarke & Esposito publishing consulting firms.

But, the analysis said, China’s home-grown efforts need more time to take root. Meanwhile the country’s researchers are publishing more and more open-access papers, because, among other reasons, it can bring career benefits. These papers may draw more citations than paywalled ones, and some of the open-access journals are prestigious, for example. For now, APC revenue flows mainly to international publishers, which many in China and elsewhere see as an unsustainable practice that allows some of the world’s largest publishers to reap excessive profits.

Other institutions in China may follow CAS’s lead. CAS has led the way on other aspects of journal-publishing policy. For instance, the institute releases an Early Warning Journal List each year naming journals that bear signs of research misconduct, charge expensive APCs, or both. The list does not bind non-CAS institutions, but many follow it. In addition to blocking CAS spending on journals with high APCs, the latest policy also prevents the outlays for an additional 120 journals that have been flagged for research-integrity problems.  

CAS’s new APC policy could hit some open-access journals hard. In 2025, approximately 10% of papers in Nature Communications and Science Advances had a CAS-affiliated author, and about 40% of papers in each had an author at any institution in China, according to a Science analysis of data in the Web of Science bibliometric database.

Meagan Phelan, a spokesperson for the Science family of journals, says CAS has not told editors at Science Advances, which charges an APC of $5450, about the new policy. “Authors from China, including those affiliated with CAS institutions, are important contributors to Science Advances,” Phelan says. (Science’s News staff is editorially independent.)  

Springer Nature, which owns Nature Communications, and Elsevier, whose holdings include Cell Reports, did not immediately provide comment. Those two journals charge APCs of $7350 and $5790, respectively. Those publishers have said particularly selective journals like these tend to charge more because they reject the majority of manuscripts submitted and the APCs of accepted papers must cover the costs of reviewing all.

Other countries have taken steps to reduce spending on APCs, although their policies are not as restrictive. Germany’s national science funder, the German Research Foundation, for example, caps its reimbursements for APCs, an approach that the U.S. National Institutes of Health is considering adopting.  

CAS’s new policy may reflect that movement, says information scientist Lin Zhang of Wuhan University, who says she has not received the text. “It reflects a structural tension in global scholarly publishing, as research systems worldwide seek to balance open-access ambitions with long-term financial sustainability and responsible stewardship of public funds.”


doi: 10.1126/science.zobbgx9


martes, 3 de marzo de 2026

OpenAI se alinea con el Pentágono... por lo que ChatGPT pierde gran cantidad de usuarios... usuarios que optaron por la "woke" Claude/Anthropic... que en realidad si fue utilizada para bombardear Irán

Publicado en GPTZONE
https://gptzone.net/noticias/sam-altman-anuncia-acuerdo-openai-y-pentagono/



Sam Altman Anuncia Acuerdo Entre OpenAI y el Pentágono, Con Cláusula de Salvaguardas

Aitor Wilzig
marzo 2, 2026 

Sam Altman soltó la bomba a última hora del viernes: OpenAI ya tiene un acuerdo para que el Departamento de Defensa de EE. UU. use sus modelos de IA dentro de la red clasificada del Pentágono. No estamos hablando de “IA para papeleo”, sino de integrar LLMs en un entorno donde la palabra “operativo” tiene un peso real y consecuencias tangibles.

El pacto llega justo después del choque público entre el Pentágono —al que Altman se refiere como “Department of War”— y Anthropic, uno de los rivales más serios de OpenAI. Y aquí el contexto lo es todo: el DoD presionó a varias empresas para permitir que sus modelos se usaran para “todos los fines legales”, una expresión que, en defensa, puede abarcar escenarios mucho más amplios de lo que cualquiera imaginaría en una simple demo de chatbot.

La pelea con Anthropic ha sido el prólogo de esta historia

Anthropic intentó marcar una línea roja bastante claranada de vigilancia masiva doméstica y nada de armas totalmente autónomas. Su CEO, Dario Amodei, publicó un comunicado defendiendo que la empresa “nunca” se opuso a operaciones militares concretas ni intentó limitar el uso de su tecnología de forma ad hoc.

En otras palabras, la postura era: no queremos convertirnos en un botón de veto para misiones específicas, pero sí establecer límites estructurales firmes. Sin embargo, también lanzó una frase que en Washington no pasa desapercibida: en un conjunto limitado de casos, la IA puede socavar valores democráticos en vez de protegerlos.

La tensión no quedó solo en la cúpula directiva. Más de 60 empleados de OpenAI y 300 de Google firmaron una carta abierta pidiendo a sus empresas que respaldaran la postura de Anthropic. Cuando el debate ético escala hasta el interior de las plantillas, el asunto deja de ser puramente estratégico y se convierte en un dilema identitario.

Trump y el Pentágono han respondido con una mano durísima

Tras no cerrar acuerdo con Anthropic, Donald Trump reaccionó con dureza en redes, calificando a la compañía de “chalados de izquierdas” y ordenando a las agencias federales dejar de usar sus productos tras un periodo de retirada de seis meses.

Pero la respuesta más contundente llegó desde el Departamento de Defensa. El secretario de Defensa, Pete Hegseth, acusó a Anthropic de intentar “apropiarse de poder de veto sobre las decisiones operativas del ejército” y la designó como riesgo para la cadena de suministro. No era solo un “no te compro”, sino un movimiento que, según lo anunciado, afectaría también a contratistas, proveedores y socios del ejército con efecto inmediato.

Anthropic, por su parte, aseguró que ni siquiera había recibido comunicación directa del Pentágono ni de la Casa Blanca sobre el estado real de las negociaciones y adelantó que impugnaría en los tribunales cualquier designación como riesgo para la cadena de suministro. El conflicto, por tanto, pasó del terreno técnico al político y, potencialmente, al judicial.

OpenAI entra… prometiendo justo lo que estaba en disputa

Altman sostiene que el contrato de defensa incluye protecciones explícitas sobre los mismos puntos que rompieron la negociación con Anthropic. Señaló dos principios como fundamentales: prohibición de vigilancia masiva doméstica y responsabilidad humana en el uso de la fuerza, incluso en sistemas de armas autónomas.



En términos prácticos, el modelo puede ayudar, recomendar, clasificar o resumir, pero la decisión de emplear fuerza debe recaer en un humano identificable y responsable. Lo relevante no es solo que OpenAI lo declare públicamente, sino que, según Altman, el Departamento de Defensa está de acuerdo con esos principios, ya reflejados en ley y política, y que fueron incorporados formalmente al acuerdo.

A esto se suman salvaguardas técnicas diseñadas para garantizar que los modelos “se comporten como deben”. No basta con confiar en el buen uso; se trata de reducir el abuso por diseño, incluso cuando el usuario tenga incentivos para forzar los límites del sistema. En esa línea, Altman también afirmó que OpenAI desplegará ingenieros junto al Pentágono para acompañar la implementación y reforzar la seguridad, lo que funciona tanto como cinturón técnico como mecanismo de control reputacional.

La “pila de seguridad” y el derecho a decir “no” importan más de lo que parece

Según la periodista Sharon Goldman, de Fortune, Altman explicó internamente que el gobierno permitirá a OpenAI construir su propia pila (stack) de seguridad para prevenir usos indebidos. Esto implica que no solo se entrega un modelo, sino un conjunto integrado de controles, filtros, auditorías y límites operativos que no dependen exclusivamente del criterio del usuario final.

Hay, además, un punto especialmente sensible: si el modelo se niega a realizar una tarea, el gobierno no obligaría a OpenAI a forzarlo. Sobre el papel, esto preserva una autonomía técnica clave. Sin embargo, la incógnita está en cómo se gestiona esa negativa en contextos de presión política, urgencia militar o crisis internacional, donde los incentivos para flexibilizar límites pueden multiplicarse.

La pregunta incómoda: ¿esto es desescalada o alineamiento total?

Altman ha señalado que está pidiendo al Departamento de Defensa que ofrezca los mismos términos a todas las empresas de IA y que cree que todas deberían aceptarlos. La intención aparente es estandarizar mínimos éticos y técnicos en el ámbito de la defensa, algo que la industria no ha logrado por sí sola.

El anuncio, sin embargo, coincidió con un contexto geopolítico especialmente tenso, marcado por bombardeos de Estados Unidos e Israel sobre Irán y llamados de Trump al derrocamiento del Gobierno iraní. En escenarios así, la tentación de empujar la IA hacia tareas más grises, rápidas y difíciles de auditar aumenta considerablemente.

Si OpenAI mantiene de forma efectiva sus líneas rojas —cero vigilancia masiva doméstica y humanos responsables en el uso de la fuerza—, el acuerdo podría convertirse en un estándar replicable para buena parte de la industria. Pero también cabe la posibilidad de que marque el inicio de una etapa en la que las grandes compañías de IA compitan por contratos clasificados mientras el debate ético se resuelve más por decreto que por consenso.

En última instancia, todo dependerá de si esas salvaguardas técnicas y contractuales se traducen en prácticas verificables y sostenidas en el tiempo, o si terminan siendo el peaje narrativo necesario para acceder a la sala donde realmente se toman las decisiones estratégicas.


*******************************



Caída de Usuarios en ChatGPT se dispara a 295% tras acuerdo con el Departamento de Defensa

Aitor Wilzig
marzo 3, 2026

ChatGPT acaba de atravesar una de esas crisis que no se solucionan con un simple parche de software. En Estados Unidos, las desinstalaciones se dispararon tras conocerse el acuerdo de OpenAI con el Departamento de Defensarebautizado por la administración Trump como “Department of War. Lo que parecía un movimiento estratégico terminó convirtiéndose en un problema reputacional de alto voltaje.

El sábado 28 de febrero, la app móvil de ChatGPT registró un +295% interdiario en desinstalacionessegún datos de Sensor Tower. En los últimos 30 días, la tasa típica de desinstalación interdiaria rondaba apenas el 9%. No se trata solo de métricas de App Store o Google Play, sino de una señal clara sobre confianza y percepción pública cuando una IA se vincula con temas de defensa.

El acuerdo con Defensa también frenó el crecimiento

El impacto no se limitó a quienes decidieron borrar la aplicación. Las descargas de ChatGPT en EEUU cayeron un 13% interdiario el sábado, poco después de hacerse pública la noticia, y el domingo volvieron a bajar otro 5%. El giro resulta más evidente si se compara con el viernes previo al anuncio, cuando la app crecía un 14% interdiario.

En otras palabras, no hablamos de un desgaste natural o de una desaceleración progresiva, sino de un cambio brusco de tendencia directamente vinculado al ciclo informativo. Cuando una app pasa de crecer con fuerza a perder tracción en cuestión de 24 a 48 horas, la correlación deja de parecer casual.

Claude capitaliza el momento con un “no” estratégico

Mientras OpenAI entraba en terreno políticamente delicado, Anthropic optó por el movimiento contrario con su modelo Claude: anunció que no se asociaría con el Departamento de Defensa de EEUU bajo esos términos. El resultado fue inmediato. Claude subió un 37% interdiario en descargas el viernes 27 de febrero y un 51% el sábado 28.

La compañía no presentó la decisión como un gesto simbólico, sino que argumentó preocupaciones concretas: el uso de IA para vigilancia masiva de ciudadanos estadounidenses y para armamento totalmente autónomo. Además, sostuvo que la tecnología aún no está preparada para asumir ese tipo de tareas de forma segura. En términos de percepción pública, el mensaje fue sencillo y potente: “no firmamos eso”.

El ranking confirma el desplazamiento

El impulso no quedó escondido en métricas técnicas. Claude alcanzó el número 1 en la App Store de EEUU el sábado 28 de febrero y se mantuvo en esa posición al menos hasta el lunes 2 de marzo. No fue un pico de horas, sino una subida sostenida que refleja tracción real.

En comparación con una semana antes, el ascenso fue de más de 20 posiciones. Cuando una aplicación escala tanto en tan poco tiempo, suele existir un detonante claro: un gran lanzamiento, una campaña masiva… o una polémica que empuja a los usuarios a probar la alternativa.

El termómetro emocional: reseñas en caída libre

Si las descargas indican comportamiento, las reseñas reflejan estado de ánimo. Según Sensor Tower, las valoraciones de 1 estrella de ChatGPT aumentaron un 775% el sábado y otro 100% interdiario el domingo. Al mismo tiempo, las reseñas de 5 estrellas se redujeron un 50%.

El dato es relevante porque muestra un doble efecto: no solo entraron usuarios enfadados a puntuar negativamente, sino que también desapareció parte del “colchón” de valoraciones positivas. Las reseñas no son un estudio científico, pero cuando se mueven con esa violencia, revelan un cambio emocional colectivo.

Otros datos refuerzan la tendencia, con matices

La tendencia no proviene de una sola fuente. Además de Sensor Tower, la firma Appfigures señaló que, por primera vez, las descargas diarias de Claude en EEUU superaron a las de ChatGPT ese sábado, estimando para Claude una subida del 88% interdiario.

El fenómeno tampoco se limitó al mercado estadounidense. Según Appfigures, Claude se convirtió en la app gratuita número 1 de iPhone en Bélgica, Canadá, Alemania, Luxemburgo, Noruega y Suiza. Por su parte, Similarweb estimó que las descargas de Claude en EEUU durante la última semana fueron aproximadamente 20 veces superiores a las que tenía en enero.

Ahora bien, incluso Similarweb introdujo un matiz importante: el crecimiento podría explicarse por factores adicionales, como mejoras de producto, mayor visibilidad en redes o simple curiosidad. No todo puede atribuirse automáticamente a la polémica política.

Más allá del ranking: una señal para el sector

Lo realmente relevante no es quién ocupa el primer puesto hoy, sino la señal que deja este episodio. Una parte del público ha demostrado que sí reacciona ante decisiones corporativas cuando entran en terrenos sensibles como defensa y vigilancia. La incógnita es si ese castigo será temporal o si marcará un cambio de hábito.

Es probable que muchos usuarios regresen si OpenAI compensa con nuevas funciones o modelos más avanzados; la comodidad y el ecosistema pesan mucho. Sin embargo, el debate sobre IA y defensa no desaparecerá. A medida que los modelos se vuelven más capaces, también crece la tentación de integrarlos en inteligencia, vigilancia y sistemas autónomos.

Estamos entrando en una fase donde ya no se comparan solo benchmarks y velocidad de respuesta. También se comparan ética, contratos y alineamientos estratégicos. La pregunta no es únicamente qué IA es más potente, sino a quién le das tu confianza cuando decides conversar —y depender— de un sistema que aprende de medio Internet.

*******************************

Publicado en GPTZONE
https://gptzone.net/noticias/eeuu-abandona-claude-por-ser-una-ia-woke/?utm_source=news.gptzone.net&utm_medium=newsletter&utm_campaign=hackean-al-gobierno-de-mexico-con-ia&_bhlid=c41f02361e09c9ffbec248c7cba5871b0843cf2e


EEUU Abandona Claude por Ser una IA Woke pero la usa para bombardear Irán

Aitor Wilzig
marzo 3, 2026

El 28 de febrero, Estados Unidos e Israel bombardearon Irán mientras, en paralelo, estallaba un culebrón interno en Washington sobre qué inteligencia artificial puede —y debe— utilizar el Pentágono.

Según informaciones recogidas por medios estadounidenses, Claude, el modelo desarrollado por Anthropic, habría sido clave en esos ataques pese a que horas antes Donald Trump ordenó que no se empleara.

Cuando una herramienta está profundamente integrada en el “sistema nervioso” militar, prohibirla por decreto puede sonar firme en una rueda de prensa, pero resulta mucho más complejo en la práctica.

De oferta simbólica a pieza crítica del Pentágono

El origen del conflicto no fue ideológico, sino logístico. Cuando Estados Unidos buscaba una IA para reforzar sus sistemas de defensa e integrarla con el software de Palantir Technologies, Anthropic ofreció Claude por un dólar, una cifra casi simbólica que le permitió entrar, integrarse y convertirse en infraestructura. Aquella puerta de acceso no se quedó en una simple prueba: derivó en un contrato de 200 millones de dólares y en la incorporación del modelo a múltiples sistemas del Pentágono.

A partir de ahí, Claude dejó de ser “una IA más” para convertirse en una herramienta cotidiana de análisis masivo de datos. En inteligencia, el valor no está en redactar bien, sino en leer montañas de señales, cruzar fuentes y ordenar el caos con rapidez, acortando el tiempo entre recibir información y formular decisiones operativas.

Las líneas rojas de Anthropic

Anthropic no presentó su modelo como una IA sin límites. Estableció dos líneas rojas claras para el ámbito militar. La primera: no utilizar Claude para vigilancia masiva de ciudadanos estadounidenses, un terreno donde el riesgo es menos técnico que político. La segunda: no emplearlo para el desarrollo o control de armas y sistemas de ataque autónomos, es decir, evitar que el modelo se convierta en el “cerebro” que decide o ejecuta violencia sin supervisión humana directa.

Según el relato publicado por The Wall Street Journal, estas restricciones generaron fricciones con el Departamento de Defensa y con la administración Trump, que no compartían del todo esos límites operativos.

El ultimátum y la amenaza legal

La tensión escaló cuando, según diversas versiones, se planteó a Anthropic un ultimátum: ofrecer una IA sin esas ataduras o afrontar consecuencias. Entre las opciones mencionadas estaba recurrir a la Ley de Producción de Defensa de 1950, una herramienta legal que permitiría al Gobierno forzar la producción de recursos estratégicos en nombre de la seguridad nacional.

También se habló de “hacerles un Huawei”, en alusión a la inclusión de la tecnológica china Huawei en listas negras comerciales que limitaron su acceso a mercados y socios internacionales.

Dario Amodei, CEO de Anthropic, respondió con una postura calculada: sí al apoyo a la defensa del país, pero no a cualquier precio. La empresa defendió su posición moral y rechazó ceder ante lo que consideraba presión excesiva, dejando claro que estar dentro del sistema no significaba entregar el volante sin condiciones.

Prohibición política, uso operativo

La respuesta habría irritado a Trump y al secretario de Defensa, Pete Hegseth, quien calificó a Claude como una “IA woke”. Trump anunció públicamente el fin de la colaboración con Anthropic y la prohibición de utilizar su tecnología en operaciones militares. Sin embargo, según lo publicado por The Wall Street Journal, el ataque aéreo contra Irán se ejecutó con apoyo de herramientas de Anthropic pese a esa orden.

Comandos desplegados en distintas regiones, incluido el Comando Central en Oriente Medio, habrían empleado Claude para evaluar información, identificar objetivos y simular escenarios. En términos prácticos, la IA habría funcionado como acelerador del ciclo de decisión, reduciendo el tiempo entre analizar datos y diseñar un plan plausible.

Un problema de dependencia tecnológica

La razón por la que la prohibición no sería tan sencilla tiene que ver con la integración profunda del modelo en el ecosistema tecnológico militar. Claude mantendría una relación casi simbiótica con el software de Palantir dentro del Pentágono. Eliminarlo no sería tan simple como desinstalar una aplicación: implicaría revisar pipelines, permisos, flujos de análisis y sistemas de visualización que dependen de su funcionamiento.

Según las estimaciones citadas, limpiar completamente su rastro podría llevar hasta seis meses. En un entorno donde la continuidad operativa es crítica, esa transición no es trivial. Por eso, en la práctica, la decisión no es solo política, sino también técnica.

OpenAI entra en escena

En paralelo, OpenAI ha defendido públicamente que Estados Unidos necesita modelos de IA robustos para cumplir su misión frente a adversarios que también integran inteligencia artificial en sus sistemas. La compañía afirma mantener límites similares —no vigilancia doméstica masiva, no control directo de armas autónomas—, pero introduce un matiz relevante: vincula el uso de sus modelos a lo que el Departamento de Defensa determine como legal.

Ese detalle cambia el equilibrio. Si la referencia última es la legalidad definida por el propio Gobierno, el margen de interpretación puede ampliarse considerablemente. De ahí que la gran incógnita no sea solo tecnológica, sino política: ¿se trata de una necesidad estratégica real o de un conflicto derivado de no obedecer determinadas órdenes?

Lo que sí parece claro es que la guerra moderna ya no se decide únicamente con aviones y satélites, sino también con modelos, integraciones y dependencias invisibles. Cuando una IA entra en el stack militar, retirarla no es simplemente una decisión administrativa: es una operación en sí misma.

CHINA: la Academia China de Ciencias dejará de pagar los APC de 30 costosas revistas

Publicado en Science https://www.science.org/content/article/major-china-funder-plans-curtail-spending-pricey-open-access-fees?utm_source=on...