Publicado en The New York Times
https://www.nytimes.com/2026/05/04/technology/trump-ai-models.html?campaign_id=60&emc=edit_na_20260504&instance_id=175090&nl=breaking-news®i_id=223549912&segment_id=219351&user_id=deb50f61d145a2d39e3c5231ea1ab080
La Casa Blanca considera evaluar modelos de IA antes de que sean lanzados
La administración Trump, que adoptó un enfoque no intervencionista hacia la inteligencia artificial, ahora está considerando imponer supervisión a los modelos de IA antes de que se hagan públicos.
El cambio de política comenzó después de que Anthropic introdujera un poderoso modelo de inteligencia artificial llamado Mythos.
Por Tripp Mickle, Julian E. Barnes, Sheera Frenkel y Dustin Volz
4 de mayo de 2026
El presidente Trump, quien promovió un enfoque de no intervención en la inteligencia artificial y dio libertad a Silicon Valley para desarrollar la tecnología, está considerando la introducción de supervisión gubernamental sobre nuevos modelos de IA, según funcionarios estadounidenses y personas informadas sobre las deliberaciones.
La administración está discutiendo una orden ejecutiva para crear un grupo de trabajo sobre IA que reuniría a ejecutivos tecnológicos y funcionarios gubernamentales para examinar posibles procedimientos de supervisión. Entre los planes potenciales se encuentra un proceso formal de revisión gubernamental para nuevos modelos de IA.
En reuniones la semana pasada, funcionarios de la Casa Blanca informaron a ejecutivos de Anthropic, Google y OpenAI sobre algunos de estos planes.
Es probable que el grupo de trabajo considere varios enfoques de supervisión. Uno de ellos podría ser similar al que se está desarrollando en el Reino Unido, donde varias entidades gubernamentales garantizan que los modelos de IA cumplan con ciertos estándares de seguridad.
Estas discusiones representan un cambio drástico en la política de la administración Trump respecto a la IA. Desde su regreso al poder el año pasado, Trump ha sido un fuerte promotor de esta tecnología, afirmando que es clave para competir geopolíticamente con China. Entre otras medidas, eliminó rápidamente regulaciones de la administración Biden que exigían evaluaciones de seguridad y reportes sobre modelos con posibles aplicaciones militares.
“Vamos a hacer de esta industria la mejor, porque ahora mismo es como un hermoso bebé que acaba de nacer”, dijo Trump en un evento en julio. “Tenemos que dejar que crezca y prospere. No podemos detenerlo con política ni con reglas tontas o absurdas.”
Trump dejó abierta la posibilidad de algunas reglas, pero afirmó que “tienen que ser más brillantes incluso que la propia tecnología”.
Ese enfoque comenzó a cambiar el mes pasado después de que Anthropic anunciara Mythos, un modelo de IA tan potente para identificar vulnerabilidades de seguridad en software que podría provocar un “punto de inflexión” en ciberseguridad. La empresa decidió no liberarlo al público.
La Casa Blanca busca evitar repercusiones políticas si ocurriera un ciberataque devastador impulsado por IA. También está evaluando si los nuevos modelos podrían ofrecer capacidades útiles para el Pentágono y las agencias de inteligencia.
Para adelantarse a modelos como Mythos, algunos funcionarios proponen un sistema de revisión que permita al gobierno acceder primero a los modelos, sin impedir su lanzamiento.
Tensiones y desacuerdos
El cambio de postura ha generado confusión. Algunos ejecutivos tecnológicos advierten que demasiada supervisión podría frenar la innovación estadounidense frente a China. Sin embargo, tampoco existe consenso en la industria sobre cómo regular la IA.
“La tecnología avanza extremadamente rápido y hay pocos procedimientos formales, pero tampoco quieren sobrerregular”, dijo Dean Ball, exasesor en IA de la administración Trump. “Es un equilibrio complicado.”
Un funcionario de la Casa Blanca calificó las discusiones sobre una orden ejecutiva como “especulación”.
Cambios en liderazgo y conflictos
El cambio de política coincide con modificaciones en el liderazgo. En marzo, David Sacks, responsable de IA en la Casa Blanca, dejó el cargo. Sus funciones fueron asumidas por Susie Wiles (jefa de gabinete) y Scott Bessent (secretario del Tesoro), quienes buscan tener mayor influencia en la política de IA.
Sin embargo, sus planes se han visto complicados por un conflicto entre el Pentágono y Anthropic sobre un contrato de 200 millones de dólares y el uso militar de la IA. Tras no llegar a un acuerdo, el Pentágono suspendió el uso de la tecnología de Anthropic en marzo, lo que llevó a la empresa a demandar al gobierno.
Este conflicto ha afectado a agencias que dependían de dicha tecnología. Aun así, la IA de Anthropic sigue utilizándose en el sistema Maven, que analiza inteligencia y sugiere objetivos militares.
La Agencia de Seguridad Nacional también ha usado recientemente el modelo Mythos para evaluar vulnerabilidades en software gubernamental.
Posibles estructuras de supervisión
Funcionarios indicaron que, si se implementa un sistema de evaluación, el grupo de trabajo definiría qué agencias participarían. Entre las opciones están:
La Agencia de Seguridad Nacional (NSA)
La Oficina del Director Nacional de Ciberseguridad
La Dirección Nacional de Inteligencia
También se analiza el posible papel del Centro para Estándares e Innovación en IA, creado durante la administración Biden para evaluar modelos de forma voluntaria. Bajo Trump, este organismo ha tenido menor protagonismo.
Debate sobre regulación
Cualquier cambio marcaría una distancia significativa respecto a la postura previa del vicepresidente JD Vance, quien en un evento en París advirtió que una regulación excesiva podría “matar una industria transformadora justo cuando está despegando”.
“El futuro de la IA no se ganará preocupándose excesivamente por la seguridad”, dijo. “Se ganará construyendo.”
No hay comentarios:
Publicar un comentario