viernes, 15 de agosto de 2025

La militarización de Silicon Valley [ Reportaje del NYT: Destacamento 201 con CEOs de OpenAI, Meta, Palatir y Google ]

Publicado en The New York Times
https://www.nytimes.com/2025/08/04/technology/google-meta-openai-military-war.html 



La militarización de Silicon Valley

En un cambio importante, Google, OpenAI, Meta y los capitalistas de riesgo, muchos de los cuales alguna vez habían renunciado a involucrarse en la guerra, han adoptado el complejo militar industrial.


Por Sheera Frenkel
Reportando desde San Francisco y Washington
Publicado el 4 de agosto de 2025

Actualizado el 5 de agosto de 2025

En una ceremonia realizada en junio en el Joint Base Myer-Henderson Hall en Arlington, Virginia, cuatro ejecutivos actuales y anteriores de Meta, OpenAI y Palantir se alinearon en el escenario para prestar juramento de apoyar y defender a los Estados Unidos. El Ejército de los EE. UU. acababa de crear una unidad de innovación técnica para los ejecutivos, quienes vestían equipo y botas de combate. En el evento, fueron nombrados tenientes coroneles de la nueva unidad, el Destacamento 201, que asesorará al Ejército sobre nuevas tecnologías para un posible combate. “Necesitamos desesperadamente lo que hacen bien”, dijo el secretario del Ejército, Daniel Driscoll, sobre los ejecutivos tecnológicos, quienes ya han recibido entrenamiento básico. “No podemos decir lo agradecidos que estamos de que se arriesguen a venir a intentar desarrollar esto con nosotros”




NYT CEOs en uniforme militar.png
Andrew Bosworth, Meta’s chief technology officer; Bob McGrew, an adviser at Thinking Machines Lab and OpenAI’s former chief research officer; Shyam Sankar, Palantir’s chief technology officer; and Kevin Weil, OpenAI’s chief product officer at a military ceremony in June. Staff Sgt. Leroy Council/United States Army

El ejército no solo está cortejando a las empresas tecnológicas de Silicon Valley. En la era del presidente Trump, las ha reclutado con éxito. En los últimos dos años, los líderes e inversores de Silicon Valley, muchos de los cuales alguna vez renunciaron a involucrarse en armas y guerra, se han lanzado de lleno al complejo militar-industrial. Meta, Google y OpenAI, que antes incluían en sus políticas corporativas cláusulas que prohibían el uso de inteligencia artificial en armas, han eliminado dicha cláusula. OpenAI está creando tecnología antidrones, mientras que Meta fabrica gafas de realidad virtual para entrenar a soldados en combate.

Al mismo tiempo, las empresas emergentes de armas y defensa están despegando. Andreessen Horowitz, una firma de capital de riesgo, anunció en 2023 que invertiría 500 millones de dólares en tecnología de defensa y otras empresas que impulsarían el crecimiento de Estados Unidos. Y Combinator, la incubadora de empresas emergentes conocida por impulsar empresas como Airbnb y DoorDash financió su primera empresa emergente de defensa en agosto de 2024. La inversión de capital de riesgo en empresas relacionadas con la defensa aumentó un 33 % el año pasado, alcanzando los 31 000 millones de dólares, según McKinsey.

Este cambio forma parte de un importante cambio cultural en Silicon Valley. Hace una década, las empresas tecnológicas ostentaban lemas como "conectar el mundo" y "no hacer el mal" y se comprometían a no utilizar su tecnología con fines militares. Colaborar con el gobierno estadounidense era tan impopular que los contratos de software y computación en la nube con el Departamento de Defensa alimentaron las protestas de los empleados del sector tecnológico.

Ahora "la situación ha cambiado", declaró Andrew Bosworth, director de tecnología de Meta y uno de los nuevos tenientes coroneles del Destacamento 201, en una conferencia tecnológica celebrada en San Francisco en junio. "Hay un patriotismo mucho más fuerte del que creo que la gente cree en Silicon Valley". Está previsto que cumpla algunos días de servicio en la reserva del Ejército cada año.






A 2020 prototype of augmented reality headgear for soldiers from the U.S. Army. Meta recently said it is making virtual reality glasses with Anduril, a defense tech start-up, to train soldiers for battle. Bridgett Siter/Agence France-Presse, via Us Army/Afp Via Getty Images


La militarización de la capital tecnológica del país se ha visto impulsada por un clima político cambiante, la competencia con China por el liderazgo tecnológico y las guerras en Ucrania y Gaza, donde los drones y los sistemas de armas basados en IA se han vuelto cruciales en los combates. Estas guerras impulsaron al Pentágono a modernizar el arsenal estadounidense, una medida que Trump ha apoyado.


En abril, el Sr. Trump emitió una orden ejecutiva que exigía al ejército actualizar el sistema que utiliza para adquirir nueva tecnología. Su proyecto de ley de política nacional asignó una cifra récord de un billón de dólares a defensa en 2026, incluyendo tecnología como drones autónomos. Los ejecutivos de Silicon Valley y los inversores de capital riesgo esperan con interés esta bonanza.


En abril, el Sr. Trump emitió una orden ejecutiva que exigía al ejército actualizar el sistema que utiliza para adquirir nueva tecnología. Su proyecto de ley de política nacional asignó una cifra récord de un billón de dólares a defensa en 2026, incluyendo tecnología como drones autónomos. Los ejecutivos de Silicon Valley y los inversores de capital riesgo esperan con interés esta bonanza.

“Proteger las democracias es importante”, afirmó Raj Shah, socio director de Shield Capital, una firma de capital de riesgo de San Francisco que invierte en tecnología de defensa y seguridad. “Hay autoritarios perversos que no creen en las fronteras”.

Sin embargo, algunos ejecutivos e ingenieros tecnológicos lidian con los posibles perjuicios de este cambio. Una vez que construyan drones autónomos y armas de IA para el ejército, tendrán poco control sobre cómo se implementa la tecnología. Esto ha generado debates sobre si estas armas avanzadas causarán más muertes que las tradicionales, según afirmaron tres ingenieros de Google y Meta.

“Estas empresas de Silicon Valley son hipercompetitivas y, en su afán por entrar en estos sectores de defensa, no hay mucho que pensar”, dijo Margaret O'Mara, historiadora tecnológica de la Universidad de Washington. 


Arraigado en la defensa La militarización de Silicon Valley es en muchos sentidos un regreso a las raíces de la región.


Antes de que la zona se convirtiera en un epicentro tecnológico, era una tierra bucólica de huertos frutales. En la década de 1950, el Departamento de Defensa comenzó a invertir en empresas tecnológicas de la región, con el objetivo de competir con las ventajas tecnológicas de Rusia durante la Guerra Fría. Esto convirtió al gobierno federal en el primer gran patrocinador de Silicon Valley. 


La Agencia de Proyectos de Investigación Avanzada de Defensa, una división del Departamento de Defensa, posteriormente incubó tecnologías —como internet— que se convirtieron en la base de las empresas más grandes de Silicon Valley. En 1998, los estudiantes de posgrado de Stanford Sergey Brin y Larry Page recibieron financiación de Darpa y otras agencias gubernamentales para crear Google.


Pero a finales de los años 90 y principios de los 2000, las empresas tecnológicas se volcaron hacia la tecnología de consumo, como el comercio electrónico y las redes sociales. Se presentaron como empresas que hacían el bien y democratizaban la tecnología para las masas, atrayendo a una fuerza laboral mayoritariamente liberal que se oponía a colaborar con el sector de defensa.


En 2018, más de 4000 empleados de Google protestaron contra un contrato del Pentágono llamado Proyecto Maven, que habría utilizado la inteligencia artificial de la compañía para analizar las grabaciones de vigilancia de drones. En una carta a los ejecutivos, los empleados afirmaron que Google «no debería estar en el negocio de la guerra».


Google pronto dijo que no renovaría el contrato del Pentágono y se retiró de una carrera por un contrato de computación en la nube de 10 mil millones de dólares llamado JEDI para el Departamento de Defensa.


Ese año, Google publicó los principios rectores para futuros proyectos de IA, prohibiendo el uso de la IA en «armas u otras tecnologías cuyo propósito o implementación principal sea causar o facilitar directamente lesiones a las personas». Otras empresas siguieron su ejemplo con compromisos similares.




In 2018, Google published a guiding principle forbidding A.I. for “weapons or other technologies whose principal purpose or implementation is to cause or directly facilitate injury to people.” Mike Kai Chen for The New York Times


Hubo casos excepcionales. Alex Karp, director ejecutivo de Palantir, una firma de análisis de datos tecnológicos fundada en 2003, estaba tan entusiasmado con la idea de que Silicon Valley asumiera un papel más importante en defensa que demandó al Ejército en 2016 para obligarlo a considerar la compra del software de Palantir. Palantir alegó que el Ejército no estaba considerando opciones comerciales para sus necesidades.


Palantir ganó la demanda. Otras empresas tecnológicas proporcionaron al Departamento de Defensa software y computación en la nube, entre otros servicios.


En 2015, el secretario de Defensa, Ashton Carter, visitó Silicon Valley para inaugurar la Unidad de Innovación de Defensa, un programa militar emblemático para acelerar la adopción de tecnología avanzada. Sin embargo, las empresas emergentes afirmaron que el proceso burocrático para firmar acuerdos con el Pentágono hacía insostenible el programa.


"No éramos tan ágiles como querían ser las personas con las que queríamos conectarnos", reconoció Carter en una conferencia tecnológica de 2016.


Orgulloso de participar después de que las guerras en Ucrania y Gaza trajeron drones autónomos y software de reconocimiento facial a los campos de batalla, los ingenieros y ejecutivos de Silicon Valley dijeron que se dieron cuenta de que ya no era teórico que la próxima guerra la ganarían los militares con las tecnologías más avanzadas.


El clima político también cambió, y algunos ejecutivos e inversores de capital riesgo apoyaron abiertamente las posturas y candidatos de derecha. La competencia con China por la superioridad tecnológica llevó a muchos expertos en tecnología a inclinarse más por el gobierno estadounidense como aliado.


Palantir se convirtió en un modelo para otras empresas tecnológicas. Con contratos con el gobierno y las fuerzas armadas estadounidenses para software que organiza y analiza datos, el valor de mercado de la compañía se disparó a más de 375 000 millones de dólares este mes, superando la capitalización bursátil combinada de contratistas de defensa tradicionales como Lockheed Martin, Northrop Grumman y General Dynamics.


En una carta a los accionistas en mayo, el Sr. Karp dijo que los críticos alguna vez descartaron el interés de Palantir en "armar a los Estados Unidos de América", pero que "algunos dentro del Valle ahora han dado un giro y han comenzado a seguir nuestro ejemplo".


Palantir no respondió a una solicitud de comentarios. Otras empresas de Silicon Valley también se volcaron en el sector de defensa. En enero de 2024, OpenAI, creador del chatbot ChatGPT, eliminó en su página de políticas la cláusula que prohibía el uso de su tecnología para el "desarrollo de armas" y "militares y bélicos". Ese mismo diciembre, la compañía anunció un acuerdo con Anduril, una startup de tecnología de defensa, para desarrollar sistemas de IA antidrones.


Cuando se le pidió un comentario, una portavoz de OpenAI señaló una conversación de abril entre Sam Altman, director ejecutivo de la compañía, y el general Paul M. Nakasone, miembro de la junta directiva de OpenAI y ex director de la Agencia de Seguridad Nacional. 


“Tenemos que involucrarnos, nos enorgullecemos de hacerlo y realmente queremos hacerlo en áreas de seguridad nacional”, afirmó Altman, y añadió que OpenAI contribuiría al desarrollo de la IA cuando “apoyara a Estados Unidos y a nuestros aliados para defender los valores democráticos en todo el mundo y garantizar nuestra seguridad”.


 (The New York Times demandó a OpenAI y a su socio, Microsoft, por violación de derechos de autor de contenido noticioso. Ambas compañías negaron haber actuado mal). 


El año pasado, Meta modificó sus políticas para permitir el uso de sus tecnologías de IA con fines militares. En mayo, la compañía anunció una alianza con Anduril para desarrollar dispositivos de realidad virtual para el entrenamiento de soldados. En aquel momento, el Sr. Bosworth afirmó que la seguridad nacional de Estados Unidos se beneficia enormemente de que la industria estadounidense haga realidad estas tecnologías. 


En febrero, Google también anunció que retiraba su prohibición autoimpuesta del uso de IA en armas. En una entrada de blog, la compañía afirmó que se estaba desarrollando una competencia global por el liderazgo en IA en un panorama geopolítico cada vez más complejo. Creemos que las democracias deberían liderar el desarrollo de la IA. 


Google y Meta declinaron hacer comentarios. 


Un beneficiario de este cambio es Anduril, fundada en 2017 por Palmer Luckey, emprendedor tecnológico que desarrolló las gafas de realidad virtual Oculus. Anduril, que diseña armas basadas en IA, firmó en marzo un contrato de 642 millones de dólares para tecnología antidrones con el Cuerpo de Marines, y en octubre un contrato de 250 millones de dólares para el desarrollo de tecnología de defensa aérea para el Departamento de Defensa. En junio, Anduril anunció la obtención de 2.500 millones de dólares en nueva financiación, con una valoración de 30.500 millones de dólares. La empresa declinó hacer comentarios



Palmer Luckey, the founder of Anduril, which designs A.I.-backed weapons. The company is working with Meta and other tech giants. Philip Cheung for The New York Times


 La aceptación de la defensa se vio reforzada por el alistamiento de cuatro ejecutivos tecnológicos en la nueva unidad del ejército en junio. Se trataba del Sr. Bosworth de Meta, el director de tecnología de Palantir, Shyam Sankar, el director de producto de OpenAI, Kevin Weil, y Bob McGrew, asesor de Thinking Machines Lab y exdirector de investigación de OpenAI. El ejército había contactado al Sr. Sankar con motivo de la unidad, quien recomendó a los demás ejecutivos, según declaró un portavoz del ejército.


'Un ciclo de exageración' 


Cuando Billy Thalheimer asistió a una sesión en la incubadora de empresas emergentes de Silicon Valley Y Combinator en 2021, se vio a sí mismo como un inadaptado.


Como director ejecutivo de Regent, empresa que construye planeadores marinos eléctricos para fines militares y de otro tipo, afirmó haber observado "un verdadero estigma contra la tecnología de defensa". Otras startups de Y Combinator promocionaban proyectos de criptomonedas, recuerda el Sr. Thalheimer. 


Ahora hay cientos de empresas emergentes centradas en la tecnología de defensa, afirmó. «Está claro que estamos en un ciclo de euforia», añadió. 


Desde 2023, Regent ha recaudado más de 100 millones de dólares de inversores como Mark Cuban y Peter Thiel. En marzo, la empresa firmó un contrato de 15 millones de dólares con el Cuerpo de Marines y está construyendo una fábrica en Rhode Island. 


En Hayward, California, la producción se ha intensificado en la fábrica de Skydio, una empresa de drones autónomos. En junio, la startup firmó un contrato de 74 millones de dólares con el Departamento de Estado para suministrar drones a las fuerzas de seguridad y la lucha contra el narcotráfico a nivel mundial. 


Adam Bry, fundador de Skydio en 2014, afirmó que se ha producido un cambio radical en la rapidez con la que el ejército satisface la necesidad de nuevas tecnologías. Firmar su primer contrato para suministrar drones al ejército le llevó tres años, pero un nuevo contrato este año para continuar suministrándolos tardó menos de un mes. 


"Por primera vez, vemos un verdadero sentido de urgencia", dijo el Sr. Bry. Skydio, que ha recaudado 230 millones de dólares, cuenta con más de 800 empleados. 


La estrecha relación de Silicon Valley con el sector de defensa quedó patente en marzo, cuando cientos de personas se reunieron en Washington para una cumbre organizada por Andreessen Horowitz. La firma de capital de riesgo destacó su programa "American Dynamism", que incluye inversiones en empresas de defensa.


“Invertir en tecnología de defensa es necesario y urgente”, declaró David Ulevitch, socio general de Andreessen Horowitz. “La superioridad tecnológica es un requisito para una democracia sólida”. 


El orador destacado fue el vicepresidente JD Vance, un ex capitalista de riesgo que una vez invirtió en Anduril. 


“No deberíamos temer a las nuevas tecnologías productivas; de hecho, deberíamos intentar dominarlas”, dijo el Sr. Vance. “Eso es, sin duda, lo que esta administración quiere lograr”. 


Sheera Frenkel es una reportera radicada en el Área de la Bahía de San Francisco que cubre las formas en que la tecnología impacta la vida cotidiana con un enfoque en las empresas de redes sociales, incluidas Facebook, Instagram, Twitter, TikTok, YouTube, Telegram y WhatsApp


*************************************



The Militarization of Silicon Valley

In a major shift, Google, OpenAI, Meta and venture capitalists — many of whom had once forsworn involvement in war — have embraced the military industrial complex.


By Sheera Frenkel

Reporting from San Francisco and Washington

Published Aug. 4, 2025Updated Aug. 5, 2025

Sign up for the On Tech newsletter.   Get our best tech reporting from the week. Get it sent to your inbox.

In a ceremony in June at Joint Base Myer-Henderson Hall in Arlington, Va., four current and former executives from Meta, OpenAI and Palantir lined up onstage to swear an oath to support and defend the United States.

The U.S. Army had just created a technical innovation unit for the executives, who were dressed in combat gear and boots. At the event, they were pronounced lieutenant colonels in the new unit, Detachment 201, which will advise the Army on new technologies for potential combat.

“We desperately need what they are good at,” Secretary of the Army Daniel Driscoll said of the tech executives, who have since undergone basic training. “It’s an understatement how grateful we are that they are taking this risk to come and try to build this out with us.”

NYT The Militarization of Silicon Valley.jpg

Andrew Bosworth, Meta’s chief technology officer; Bob McGrew, an adviser at Thinking Machines Lab and OpenAI’s former chief research officer; Shyam Sankar, Palantir’s chief technology officer; and Kevin Weil, OpenAI’s chief product officer at a military ceremony in June.Credit...Staff Sgt. Leroy Council/United States Army

The military is not just courting Silicon Valley tech companies. In the age of President Trump, it has successfully recruited them.

Over the past two years, Silicon Valley’s leaders and investors — many of whom had once forsworn involvement in weapons and war — have plunged headfirst into the military industrial complex. Meta, Google and OpenAI, which once had language in their corporate policies banning the use of artificial intelligence in weapons, have removed such wording. OpenAI is creating anti-drone technology, while Meta is making virtual reality glasses to train soldiers for battle.

At the same time, weapons and defense start-ups are taking off. Andreessen Horowitz, a venture capital firm, said in 2023 that it would invest $500 million in defense technology and other companies that would help America “move forward.” Y Combinator, the start-up incubator known for hatching companies like Airbnb and DoorDash, funded its first defense start-up in August 2024. Venture capital investment in defense-related companies surged 33 percent last year to $31 billion, according to McKinsey.

jueves, 14 de agosto de 2025

CHINA: las universidades chinas quieren que los estudiantes utilicen más IA, no menos

Publicado por MIT Technology Review
https://www.technologyreview.com/2025/07/28/1120747/chinese-universities-ai-use/?utm_source=the_download&utm_medium=email&utm_campaign=the_download.unpaid.engagement&utm_term=&utm_content=07-28-2025&mc_cid=1f780c837c&mc_eid=117293906d 




Inteligencia artificial


Las universidades chinas quieren que los estudiantes utilicen más IA, no menos


A diferencia de Occidente, donde las universidades siguen debatiéndose sobre cómo deben utilizar los estudiantes la IA en sus trabajos, las principales universidades de China están apostando por ella.


Por Caiwei Chen


28 de julio de 2025


Hace solo dos años, a Lorraine He, ahora una estudiante de Derecho de 24 años,  le dijeron que evitara utilizar la IA para sus trabajos. En aquel momento, para sortear el bloqueo nacional de ChatGPT, los estudiantes tenían que comprar una versión de un sitio espejo en un mercado de segunda mano. Su uso era habitual, pero, en el mejor de los casos, se toleraba y, más a menudo, se desaprobaba. Ahora, sus profesores ya no advierten a los estudiantes contra el uso de la IA. Al contrario, se les anima a utilizarla, siempre y cuando sigan las mejores prácticas.


Ella no es la única. Al igual que en Occidente, las universidades chinas están viviendo una revolución silenciosa. Según una encuesta reciente del Mycos Institute, un grupo de investigación sobre educación superior chino, el uso de la IA generativa en los campus se ha generalizado. La misma encuesta revela que solo el 1 % del profesorado y el alumnado universitario en China afirma no haber utilizado nunca herramientas de IA en sus estudios o en su trabajo. Casi el 60 % afirma utilizarlas con frecuencia, ya sea varias veces al día o varias veces a la semana. 


Sin embargo, hay una diferencia crucial. Mientras que muchos educadores occidentales ven la IA como una amenaza que deben gestionar, cada vez más aulas chinas la tratan como una habilidad que hay que dominar. De hecho, a medida que el modelo DeepSeek, desarrollado en China, gana popularidad en todo el mundo, la gente lo ve cada vez más como un motivo de orgullo nacional. El debate en las universidades chinas ha pasado gradualmente de preocuparse por las implicaciones para la integridad académica a fomentar la alfabetización, la productividad y la vanguardia. 


La brecha cultural es aún más evidente en la opinión pública. Un informe sobre las actitudes globales hacia la IA elaborado por el Instituto de Inteligencia Artificial Centrada en el Ser Humano (HAI) de la Universidad de Stanford reveló que China lidera el mundo en entusiasmo. Alrededor del 80 % de los encuestados chinos afirmaron estar «entusiasmados» con los nuevos servicios de IA, en comparación con solo el 35 % en Estados Unidos y el 38 % en el Reino Unido.


«Esta actitud no es sorprendente», afirma Fang Kecheng, profesor de Comunicaciones en la Universidad China de Hong Kong. «En China existe una larga tradición de creer en la tecnología como motor del progreso nacional, que se remonta a la década de 1980, cuando Deng Xiaoping ya afirmaba que la ciencia y la tecnología son fuerzas productivas primordiales».


De tabú a herramienta


Liu Bingyu, una de las profesoras de He en la Universidad de Ciencias Políticas y Derecho de China, afirma que la IA puede actuar como «instructora, compañera de brainstorming, secretaria y abogada del diablo». Este año, añadió una sesión completa sobre directrices de IA a su serie de conferencias, después de que la universidad fomentara un uso «responsable y seguro» de la IA.


Liu recomienda a los estudiantes que utilicen la IA generativa para redactar reseñas literarias, redactar resúmenes, generar gráficos y organizar ideas. Ha creado diapositivas que muestran ejemplos detallados de indicaciones buenas y malas, junto con un principio fundamental: la IA no puede sustituir al juicio humano. «Solo una entrada de alta calidad y unas indicaciones inteligentes pueden dar buenos resultados», afirma.


«La capacidad de interactuar con las máquinas es una de las habilidades más importantes en el mundo actual», dijo Liu a su clase. «Y en lugar de que los estudiantes lo hagan en privado, deberíamos hablar de ello abiertamente».


Esto refleja una tendencia creciente en todo el país. MIT Technology Review revisó las estrategias de IA de 46 de las principales universidades chinas y descubrió que casi todas ellas han añadido clases interdisciplinarias de educación general sobre IA, programas de grado relacionados con la IA y módulos de alfabetización en IA durante el último año. Tsinghua, por ejemplo, está creando una nueva facultad de educación general para formar a los estudiantes en IA y otra disciplina tradicional, como biología, salud, ciencias o humanidades.


Instituciones importantes como las universidades de Remin, Nanjing y Fudan han puesto en marcha cursos de IA de acceso general y programas de grado abiertos a todos los estudiantes, no reservados a los estudiantes de informática como las clases tradicionales de aprendizaje automático. En la Universidad de Zhejiang, una clase introductoria de IA será obligatoria para los estudiantes universitarios a partir de 2024.


Lin Shangxin, rector de la Universidad Renmin de China, declaró recientemente a los medios locales que la IA era una «oportunidad sin precedentes» para las humanidades y las ciencias sociales. «En lugar de un reto, creo que la IA potenciará los estudios de humanidades», afirmó Lin a The Paper.


Esta acción colectiva se hace eco de una iniciativa del Gobierno central. En abril de 2025, el Ministerio de Educación publicó unas nuevas directrices nacionales en las que se pedía una reforma radical de la «educación + IA», con el objetivo de fomentar el pensamiento crítico, la fluidez digital y las habilidades para la vida real en todos los niveles educativos. A principios de este año, el Gobierno municipal de Pekín impuso la enseñanza de la IA en todas las escuelas de la ciudad, desde las universidades hasta la educación primaria y secundaria.


Fang cree que una educación más formal en materia de inteligencia artificial ayudará a salvar la brecha emergente entre los estudiantes. «Existe una gran diferencia en cuanto a conocimientos digitales», afirma. «Algunos estudiantes dominan las herramientas de inteligencia artificial. Otros están perdidos».


Creación de la universidad de IA


Ante la ausencia de herramientas occidentales como ChatGPT y Claude, muchas universidades chinas han comenzado a implementar versiones locales de DeepSeek en los servidores de los campus para ayudar a los estudiantes. Muchas universidades de prestigio han implementado sus propias versiones de Deepseek alojadas localmente. Estos sistemas de IA específicos para cada campus, a menudo denominados «versión completa» de Deepseek, ofrecen ventanas de contexto más largas, rondas de diálogo ilimitadas y una funcionalidad más amplia que las versiones gratuitas disponibles para el público.


Esto refleja una tendencia más amplia en Occidente, donde empresas como OpenAI y Anthropic están implementando niveles de educación en todo el campus: OpenAI ofreció recientemente ChatGPT Plus de forma gratuita a todos los estudiantes universitarios de Estados Unidos y Canadá, mientras que Anthropic lanzó Claude for Education con socios como Northeastern y LSE. Sin embargo, en China, la iniciativa suele estar liderada por las universidades en lugar de por las propias empresas.


El objetivo, según la Universidad de Zhejiang, es ofrecer a los estudiantes acceso completo a las herramientas de IA para que puedan mantenerse al día con la tecnología en rápida evolución. Los estudiantes pueden utilizar su identificación para acceder a los modelos de forma gratuita.


Yanyan Li y Meifang Zhuo, dos investigadoras de la Universidad de Warwick que han estudiado el uso de la IA por parte de los estudiantes en universidades del Reino Unido, creen que la educación en materia de IA se ha convertido en un factor crucial para el éxito de los estudiantes. 


Junto con su colega Gunisha Aggarwal, llevaron a cabo grupos de discusión con estudiantes universitarios de diferentes orígenes y niveles para averiguar cómo se utiliza la IA en los estudios académicos. Descubrieron que los conocimientos de los estudiantes sobre cómo utilizar la IA provienen principalmente de la exploración personal. «Aunque la mayoría de los estudiantes entienden que los resultados de la IA no siempre son fiables, observamos mucha ansiedad sobre cómo utilizarla correctamente», afirma Li.


«El objetivo no debería ser impedir que los estudiantes utilicen la IA, sino guiarlos para que la aprovechen para un aprendizaje eficaz y un pensamiento de orden superior», afirma Zhuo. 


Esa lección ha llegado poco a poco. Un estudiante de la Universidad Normal de China Central en Wuhan declaró a MIT Technology Review que, hace solo un año, la mayoría de sus compañeros pagaban por sitios web espejo de ChatGPT, utilizando VPN o mercados online semilegales para acceder a modelos occidentales. «Ahora, todo el mundo utiliza DeepSeek y Doubao», afirmó. «Es más barato, funciona en chino y ya nadie se preocupa por ser detectado».


Aun así, a pesar del aumento del apoyo institucional, muchos estudiantes se sienten preocupados por si están utilizando la IA de forma correcta o ética. El uso de herramientas de detección de IA ha creado una economía sumergida informal, en la que los estudiantes pagan cientos de yuanes a autónomos que prometen que sus trabajos serán «a prueba de detección de IA», según un informe de Rest of World. Tres estudiantes dijeron a MIT Technology Review que este entorno ha generado confusión, estrés y mayor ansiedad. En general, dijeron que aprecian que sus profesores ofrezcan políticas claras y consejos prácticos, y no solo advertencias.


Él, un estudiante de Derecho en Pekín, se ha unido recientemente a un grupo de desarrollo profesional para aprender más habilidades relacionadas con la inteligencia artificial (IA) y prepararse para el mercado laboral. Para muchos como él, comprender cómo utilizar mejor la IA no es solo un truco para estudiar, sino una habilidad necesaria en el frágil mercado laboral chino. Según un informe del medio de comunicación chino YiCai, el 80 % de las ofertas de empleo disponibles para recién graduados en 2025 mencionaban las habilidades relacionadas con la IA como un plus. En una economía ralentizada y un mercado laboral competitivo, muchos estudiantes ven la IA como un salvavidas. 


 «Tenemos que replantearnos lo que se considera «trabajo original» en la era de la IA», afirma Zhuo, «y las universidades son un lugar crucial para ese debate».



///////////////////////////


Artificial intelligence

Chinese universities want students to use more AI, not less

Unlike the West, where universities are still agonizing over how students use AI in their work, top universities in China are going all in.

By 

July 28, 2025


Just two years ago, Lorraine He, now a 24-year-old law student,  was told to avoid using AI for her assignments. At the time, to get around a national block on ChatGPT, students had to buy a mirror-site version from a secondhand marketplace. Its use was common, but it was at best tolerated and more often frowned upon. Now, her professors no longer warn students against using AI. Instead, they’re encouraged to use it—as long as they follow best practices.

She is far from alone. Just like those in the West, Chinese universities are going through a quiet revolution. According to a recent survey by the Mycos Institute, a Chinese higher-education research group, the use of generative AI on campus has become nearly universal. The same survey reports that just 1% of university faculty and students in China reported never using AI tools in their studies or work. Nearly 60% said they used them frequently—either multiple times a day or several times a week.  

However, there’s a crucial difference. While many educators in the West see AI as a threat they have to manage, more Chinese classrooms are treating it as a skill to be mastered. In fact, as the Chinese-developed model DeepSeek gains in popularity globally, people increasingly see it as a source of national pride. The conversation in Chinese universities has gradually shifted from worrying about the implications for academic integrity to encouraging literacy, productivity, and staying ahead. 

The cultural divide is even more apparent in public sentiment. A report on global AI attitudes from Stanford University’s Institute for Human-Centered Artificial Intelligence (HAI) found that China leads the world in enthusiasm. About 80% of Chinese respondents said they were “excited” about new AI services—compared with just 35% in the US and 38% in the UK.

“This attitude isn’t surprising,” says Fang Kecheng, a professor in communications at the Chinese University of Hong Kong. “There’s a long tradition in China of believing in technology as a driver of national progress, tracing back to the 1980s, when Deng Xiaoping was already saying that science and technology are primary productive forces.”

From taboo to toolkit

Liu Bingyu, one of He’s professors at the China University of Political Science and Law, says AI can act as “instructor, brainstorm partner, secretary, and devil’s advocate.” She added a full session on AI guidelines to her lecture series this year, after the university encouraged “responsible and confident” use of AI.  

Liu recommends that students use generative AI to write literature reviews, draft abstracts, generate charts, and organize thoughts. She’s created slides that lay out detailed examples of good and bad prompts, along with one core principle: AI can’t replace human judgment. “Only high-quality input and smart prompting can lead to good results,” she says.

“The ability to interact with machines is one of the most important skills in today’s world,” Liu told her class. “And instead of having students do it privately, we should talk about it out in the open.”  

This reflects a growing trend across the country. MIT Technology Review reviewed the AI strategies of 46 top Chinese universities and found that almost all of them have added interdisciplinary AI general‑education classes, AI related degree programs and AI literacy modules in the past year. Tsinghua, for example, is establishing a new undergraduate general education college to train students in AI plus another traditional discipline, like biology, healthcare, science, or humanities.

Major institutions like Remin, Nanjing, and Fudan Universities have rolled out general-access AI courses and degree programs that are open to all students, not reserved for computer science majors like the traditional machine-learning classes. At Zhejiang University, an introductory AI class will become mandatory for undergraduates starting in 2024.   

Lin Shangxin, principal of Renmin University of China recently told local media that AI was an “unprecedented opportunity” for humanities and social sciences. “Intead of a challenge, I believe AI would empower humanities studies,” Lin said told The Paper.

The collective action echoes a central government push. In April 2025, the Ministry of Education released new national guidelines calling for sweeping “AI+ education” reforms, aimed at cultivating critical thinking, digital fluency, and real‐world skills at all education levels. Earlier this year, the Beijing municipal government mandated AI education across all schools in the city—from universities to K–12.   

Fang believes that more formal AI literacy education will help bridge an emerging divide between students. “There’s a big gap in digital literacy,” he says. “Some students are fluent in AI tools. Others are lost.”

Building the AI university

In the absence of Western tools like ChatGPT and Claude, many Chinese universities have begun deploying local versions of DeepSeek on campus servers to support students. Many top universities have deployed their own locally hosted versions of Deepseek. These campus-specific AI systems–often referred to as the “full-blood version” of Deepseek—offer longer context windows, unlimited dialogue rounds and broader functionality than public-facing free versions.   

This mirrors a broader trend in the West, where companies like OpenAI and Anthropic are rolling out campus-wide education tiers—OpenAI recently offered free ChatGPT Plus to all U.S. and Canadian college students, while Anthropic launched Claude for Education with partners like Northeastern and LSE. But in China, the initiative is typically university-led rather than driven by the companies themselves.

The goal, according to Zhejiang University, is to offer students full access to AI tools so they can stay up to date with the fast-changing technology. Students can use their ID to access the models for free.   

Yanyan Li and Meifang Zhuo, two researchers at Warwick University who have studied students’ use of AI at universities in the UK, believe that AI literacy education has become crucial to students’ success. 

With their colleague Gunisha Aggarwal, they conducted focus groups including college students from different backgrounds and levels to find out how AI is used in academic studies. They found that students’ knowledge of how to use AI comes mainly from personal exploration. “While most students understand that AI output is not always trustworthy, we observed a lot of anxiety on how to use it right,” says Li.   

“The goal shouldn’t be preventing students from using AI but guiding them to harness it for effective learning and higher-order thinking,” says Zhuo. 

That lesson has come slowly. A student at Central China Normal University in Wuhan told MIT Technology Review that just a year ago, most of his classmates paid for mirror websites of ChatGPT, using VPNs or semi-legal online marketplaces to access Western models. “Now, everyone just uses DeepSeek and Doubao,” he said. “It’s cheaper, it works in Chinese, and no one’s worried about getting flagged anymore.”  

Still, even with increased institutional support, many students feel anxious about whether they’re using AI correctly—or ethically. The use of AI detection tools has created an informal gray economy, where students pay hundreds of yuan to freelancers promising to “AI-detection-proof” their writing, according to a Rest of World report. Three students told MIT Technology Review that this environment has created confusion, stress, and increased anxiety. Across the board, they said they appreciate it when their professor offers clear policies and practical advice, not just warnings.  

He, the law student in Beijing, recently joined a career development group to learn more AI skills to prepare for the job market. To many like her, understanding how to use AI better is not just a studying hack but a necessary skill in China’s fragile job market. Eighty percent of job openings available to fresh graduates listed AI-related skills as a plus in 2025, according to a report by the Chinese media outlet YiCai. In a slowed-down economy and a competitive job market, many students see AI as a lifeline. 

 “We need to rethink what is considered ‘original work’ in the age of AI” says Zhuo, “and universities are a crucial site of that conversation”.

CHINA está llevando a la edición occidental a un punto de ruptura

Publicado en The Scholarly Kitchen https://scholarlykitchen.sspnet.org/2025/07/08/guest-post-how-the-growth-of-chinese-research-is-bringing-...