Publicado en dpl news
https://dplnews.com/openai-del-ascenso-global-al-control-algoritmico/
Especial: Titanes de la geopolítica digital
Menos de una década le tomó a OpenAI convertirse en uno de los jugadores más importantes del desarrollo de Inteligencia Artificial (IA) en el mundo: pasando de ser un laboratorio de investigación impulsado por la filantropía tecnológica a consolidarse como uno de los centros neurálgicos del poder de la tecnología y los algoritmos.
OpenAI fue fundada en 2015 por su actual CEO, Sam Altman, por Elon Musk y otros expertos de tecnología, con la misión de “asegurar que la Inteligencia Artificial General se desarrolle de forma segura y esté al servicio de toda la humanidad”. Hoy, una década después, los modelos y desarrollos casi diarios que presenta OpenAI dejan muchas dudas sobre los verdaderos intereses de la compañía.
De regreso con sus creadores, Elon Musk se retiró de la junta directiva en 2018 para “evitar interferencias con los desarrollos de IA que se estaban realizando en Tesla, especialmente en el campo de la conducción autónoma”, decía el reporte oficial.
Sin embargo, informes posteriores indican que Musk habría propuesto tomar control de OpenAI y convertirla en una entidad más agresiva y competitiva, algo que no fue bien recibido por el resto del equipo fundador, y al no lograr alinear su visión con la del resto de la organización, optó por apartarse.
Pero con el tiempo, la escalada de la IA casi le daría la razón.
Los costos de entrenamiento de modelos cada vez más grandes y la competencia obligaron a OpenAI a hacer una reestructuración en 2019, cuando se creó una entidad “con fines de lucro limitados” para atraer capital privado. Una decisión efectiva, ya que Microsoft invirtió más de 13 mil millones de dólares e integró los modelos de OpenAI en productos como Azure, Bing y Microsoft 365.
Puede decirse que ese fue el momento clave para convertir a OpenAI en una infraestructura cognitiva de propósito general, con aplicaciones directas en educación, medios, salud, defensa y más.
ChatGPT, la joya de la coronaAunque OpenAI venía haciendo un muy buen trabajo para incorporar sus soluciones en el ecosistema Microsoft, la compañía llegó a la cima en noviembre de 2022, cuando lanzó públicamente ChatGPT, una interfaz conversacional (chatbot) basada en su modelo GPT-3.5 que en sólo cinco días superó el millón de usuarios, y en menos de dos meses alcanzó los 100 millones, convirtiéndose en la aplicación de más rápido crecimiento en la historia digital.
Este fenómeno no sólo capturó la atención de desarrolladores y tecnólogos, sino que impactó directamente a medios, educadores, empresas y gobiernos. Por primera vez, millones de personas experimentaron el poder de un modelo de lenguaje capaz de responder preguntas, redactar textos complejos, traducir, programar e incluso generar ideas creativas.
ChatGPT catalizó una nueva ola de inversión, regulaciones emergentes y discusiones filosóficas sobre la relación entre humanos y máquinas, consolidando a OpenAI como un referente indiscutible en la feroz carrera global por dominar la IA.
El chatbot se convirtió en el rostro público de la IA moderna. Su adopción masiva redefinió lo que los usuarios esperan de una herramienta digital con Inteligencia Artificial que dejó de ser la ejecución de comandos, para convertirse en una herramienta que permite establecer diálogos fluidos, contextuales y creativos con una máquina.
ChatGPT pasó de una versión gratuita a un modelo de suscripción con capacidades como generación de imágenes y análisis de textos y datos, marcó una nueva etapa en el uso de la IA y se convirtió en una plataforma cotidiana integrada en sistemas empresariales, universidades y utilizada por profesionales de todos los sectores, mientras que la ciudadanía en general la utiliza como un sustituto de buscadores tradicionales, y las generaciones más jóvenes como un asesor de vida.
Luego de que ChatGPT le diera la vuelta al mundo, Elon Musk regresó a la historia y en 2024 criticó a OpenAI por “haberse desviado de sus principios fundacionales al volverse una empresa con fines de lucro estrechamente ligada a Microsoft”, por lo cual presentó una demanda que aún sigue en curso.
Musk también presentó una oferta para comprar OpenAI en febrero de 2025, que por supuesto fue rechazada por Altman.
Y en mayo de este año, la junta directiva de OpenAI regresó a su modelo sin fines de lucro, el cual mantendrá el control sobre su organización con fines de lucro.
Los cambios estructurales y la necesidad de Musk por regresar a la historia parecen un par de intentos por reforzar la legitimidad ética de la empresa. Pero esa misma expansión, impulsada por el éxito sin precedentes de ChatGPT, ha llevado a OpenAI a acelerar el desarrollo de nuevos productos y capacidades que están generando creciente escrutinio a nivel global.
Del chatbot inofensivo al posible control algorítmicoEs claro que ChatGPT fue sólo el primer paso de una serie de productos que empiezan a preocupar a expertos y autoridades.
Con la llegada de Donald Trump a la presidencia de Estados Unidos, en enero de 2025, las capacidades de OpenAI se potenciaron. En su primer día en la Casa Blanca, el presidente revocó una Orden Ejecutiva firmada por Joe Biden en 2023, con la que se buscaba impulsar el desarrollo y usos seguros y fiables de la IA. Dicha orden exigía pruebas de seguridad rigurosas y transparencia por parte de los desarrolladores de esta tecnología.
Así, OpenAI entendió que sus capacidades irían más allá de Sillicon Valley. En abril, la compañía presentó su plan para la Unión Europea (UE) como un “blueprint económico”, en el que propone multiplicar por tres la infraestructura de cómputo en el continente, establecer Centros de Datos regionales y crear un fondo de mil millones de euros para acelerar proyectos de IA con impacto social o económico. Esta estrategia, que en la superficie busca fomentar la competitividad europea, también puede leerse como un intento de moldear las condiciones del mercado y adelantarse a futuras restricciones de la Ley de Inteligencia Artificial (AI Act), el ambicioso marco regulatorio que la UE impulsa.
Pero la fase internacional de OpenAI no se detiene. La compañía lanzó el programa “OpenAI for Countries”, que pretende construir relaciones formales con gobiernos de todo el mundo para apoyar el desarrollo responsable de la IA en cada país. Este esquema podría permitirle a OpenAI influir directamente en políticas públicas, fomentar la adopción de sus productos y consolidarse como socio estratégico en la formulación de agendas nacionales de IA.
Con oficinas locales y acuerdos bilaterales para transferencia de conocimiento y acceso preferencial a tecnología, el programa OpenAI for Countries podría convertirse en el vehículo con el que una empresa privada establezca las reglas del juego en países que aún están definiendo su futuro digital, y en este caso OpenAI empezaría a operar con una lógica casi-estatal. Al respecto, es importante considerar la delgada frontera entre colaboración y captura institucional que resulta un tanto difusa y que podría considerarse una especie de “neocolonialismo digital”.
Por otro lado, Sam Altman respalda a Oklo, una startup de energía nuclear que planea desarrollar pequeños reactores modulares (SMRs) para abastecer de energía limpia y constante las instalaciones de OpenAI, y además ha establecido una colaboración con los Laboratorios Nacionales de Estados Unidos para la seguridad nuclear, que incluyen la integración de modelos de IA de OpenAI en investigaciones de seguridad nacional.
Si bien estas dos estrategias (invertir en generación propia de energía y colaborar con instituciones gubernamentales en seguridad nuclear) pueden ofrecer beneficios significativos, también plantean interrogantes sobre la concentración de poder y la necesidad de una supervisión adecuada en el uso de tecnologías avanzadas en ámbitos críticos. Una supervisión que prácticamente ya no existe con la revocación de la Orden Ejecutiva de 2023.
El liderazgo de OpenAI es indiscutible, pero no sólo se mide en su capacidad de cómputo, talento en IA y control sobre modelos fundacionales, sino también en su capacidad de definir estándares éticos, marcos de gobernanza y narrativas claras sobre lo que significa “de forma segura y al servicio de toda la humanidad”, como la que promulgan.
Al convertirse en el referente que es y ampliando sus facultades como lo ha venido haciendo, OpenAI también asume el riesgo de convertirse en juez y parte de un ecosistema donde las reglas aún se están escribiendo y que no todos escriben por igual.
Analista especializada en Colombia y Ecuador y reportera principal en temas de Inteligencia Artificial.
Especializada en temas de derechos humanos y de género en entornos digitales, política pública y regulación TIC, con enfoque ético, violencia digital, espectro, redes 5G, IoT, chips e Identidad digital. También sigue la agenda TIC de Venezuela y Panamá.