Mostrando entradas con la etiqueta ChatGPT. Mostrar todas las entradas
Mostrando entradas con la etiqueta ChatGPT. Mostrar todas las entradas

jueves, 18 de septiembre de 2025

OpenAI: ¿del ascenso global al control algorítmico?

Publicado en dpl news
https://dplnews.com/openai-del-ascenso-global-al-control-algoritmico/



OpenAI: ¿del ascenso global al control algorítmico?
Sharon Durán  May 26, 2025

Especial: Titanes de la geopolítica digital

Menos de una década le tomó a OpenAI convertirse en uno de los jugadores más importantes del desarrollo de Inteligencia Artificial (IA) en el mundo: pasando de ser un laboratorio de investigación impulsado por la filantropía tecnológica a consolidarse como uno de los centros neurálgicos del poder de la tecnología y los algoritmos.

OpenAI fue fundada en 2015 por su actual CEO, Sam Altman, por Elon Musk y otros expertos de tecnología, con la misión de “asegurar que la Inteligencia Artificial General se desarrolle de forma segura y esté al servicio de toda la humanidad”. Hoy, una década después, los modelos y desarrollos casi diarios que presenta OpenAI dejan muchas dudas sobre los verdaderos intereses de la compañía.

De regreso con sus creadores, Elon Musk se retiró de la junta directiva en 2018 para “evitar interferencias con los desarrollos de IA que se estaban realizando en Tesla, especialmente en el campo de la conducción autónoma”, decía el reporte oficial.

Sin embargo, informes posteriores indican que Musk habría propuesto tomar control de OpenAI y convertirla en una entidad más agresiva y competitiva, algo que no fue bien recibido por el resto del equipo fundador, y al no lograr alinear su visión con la del resto de la organización, optó por apartarse. 

Pero con el tiempo, la escalada de la IA casi le daría la razón.

Los costos de entrenamiento de modelos cada vez más grandes y la competencia obligaron a OpenAI a hacer una reestructuración en 2019, cuando se creó una entidad “con fines de lucro limitados” para atraer capital privado. Una decisión efectiva, ya que Microsoft invirtió más de 13 mil millones de dólares e integró los modelos de OpenAI en productos como Azure, Bing y Microsoft 365.

Puede decirse que ese fue el momento clave para convertir a OpenAI en una infraestructura cognitiva de propósito general, con aplicaciones directas en educación, medios, salud, defensa y más.

ChatGPT, la joya de la corona

Aunque OpenAI venía haciendo un muy buen trabajo para incorporar sus soluciones en el ecosistema Microsoft, la compañía llegó a la cima en noviembre de 2022, cuando lanzó públicamente ChatGPT, una interfaz conversacional (chatbot) basada en su modelo GPT-3.5 que en sólo cinco días superó el millón de usuarios, y en menos de dos meses alcanzó los 100 millones, convirtiéndose en la aplicación de más rápido crecimiento en la historia digital.

Este fenómeno no sólo capturó la atención de desarrolladores y tecnólogos, sino que impactó directamente a medios, educadores, empresas y gobiernos. Por primera vez, millones de personas experimentaron el poder de un modelo de lenguaje capaz de responder preguntas, redactar textos complejos, traducir, programar e incluso generar ideas creativas.

ChatGPT catalizó una nueva ola de inversión, regulaciones emergentes y discusiones filosóficas sobre la relación entre humanos y máquinas, consolidando a OpenAI como un referente indiscutible en la feroz carrera global por dominar la IA.

El chatbot se convirtió en el rostro público de la IA moderna. Su adopción masiva redefinió lo que los usuarios esperan de una herramienta digital con Inteligencia Artificial que dejó de ser la ejecución de comandos, para convertirse en una herramienta que permite establecer diálogos fluidos, contextuales y creativos con una máquina.

ChatGPT pasó de una versión gratuita a un modelo de suscripción con capacidades como generación de imágenes y análisis de textos y datos, marcó una nueva etapa en el uso de la IA y se convirtió en una plataforma cotidiana integrada en sistemas empresariales, universidades y utilizada por profesionales de todos los sectores, mientras que la ciudadanía en general la utiliza como un sustituto de buscadores tradicionales, y las generaciones más jóvenes como un asesor de vida.

Luego de que ChatGPT le diera la vuelta al mundo, Elon Musk regresó a la historia y en 2024 criticó a OpenAI por “haberse desviado de sus principios fundacionales al volverse una empresa con fines de lucro estrechamente ligada a Microsoft”, por lo cual presentó una demanda que aún sigue en curso. 

Musk también presentó una oferta para comprar OpenAI en febrero de 2025, que por supuesto fue rechazada por Altman.

Y en mayo de este año, la junta directiva de OpenAI regresó a su modelo sin fines de lucro, el cual mantendrá el control sobre su organización con fines de lucro.

Los cambios estructurales y la necesidad de Musk por regresar a la historia parecen un par de intentos por reforzar la legitimidad ética de la empresa. Pero esa misma expansión, impulsada por el éxito sin precedentes de ChatGPT, ha llevado a OpenAI a acelerar el desarrollo de nuevos productos y capacidades que están generando creciente escrutinio a nivel global.

Del chatbot inofensivo al posible control algorítmico 

Es claro que ChatGPT fue sólo el primer paso de una serie de productos que empiezan a preocupar a expertos y autoridades.

Con la llegada de Donald Trump a la presidencia de Estados Unidos, en enero de 2025, las capacidades de OpenAI se potenciaron. En su primer día en la Casa Blanca, el presidente revocó una Orden Ejecutiva firmada por Joe Biden en 2023, con la que se buscaba impulsar el desarrollo y usos seguros y fiables de la IA. Dicha orden exigía pruebas de seguridad rigurosas y transparencia por parte de los desarrolladores de esta tecnología.

Así, OpenAI entendió que sus capacidades irían más allá de Sillicon Valley. En abril, la compañía presentó su plan para la Unión Europea (UE) como un “blueprint económico”, en el que propone multiplicar por tres la infraestructura de cómputo en el continente, establecer Centros de Datos regionales y crear un fondo de mil millones de euros para acelerar proyectos de IA con impacto social o económico. Esta estrategia, que en la superficie busca fomentar la competitividad europea, también puede leerse como un intento de moldear las condiciones del mercado y adelantarse a futuras restricciones de la Ley de Inteligencia Artificial (AI Act), el ambicioso marco regulatorio que la UE impulsa.

Pero la fase internacional de OpenAI no se detiene. La compañía lanzó el programa “OpenAI for Countries”, que pretende construir relaciones formales con gobiernos de todo el mundo para apoyar el desarrollo responsable de la IA en cada país. Este esquema podría permitirle a OpenAI influir directamente en políticas públicas, fomentar la adopción de sus productos y consolidarse como socio estratégico en la formulación de agendas nacionales de IA.

Con oficinas locales y acuerdos bilaterales para transferencia de conocimiento y acceso preferencial a tecnología, el programa OpenAI for Countries podría convertirse en el vehículo con el que una empresa privada establezca las reglas del juego en países que aún están definiendo su futuro digital, y en este caso OpenAI empezaría a operar con una lógica casi-estatal. Al respecto, es importante considerar la delgada frontera entre colaboración y captura institucional que resulta un tanto difusa y que podría considerarse una especie de “neocolonialismo digital”.

Por otro lado, Sam Altman respalda a Oklo, una startup de energía nuclear que planea desarrollar pequeños reactores modulares (SMRs) para abastecer de energía limpia y constante las instalaciones de OpenAI, y además ha establecido una colaboración con los Laboratorios Nacionales de Estados Unidos para la seguridad nuclear, que incluyen la integración de modelos de IA de OpenAI en investigaciones de seguridad nacional.

Si bien estas dos estrategias (invertir en generación propia de energía y colaborar con instituciones gubernamentales en seguridad nuclear) pueden ofrecer beneficios significativos, también plantean interrogantes sobre la concentración de poder y la necesidad de una supervisión adecuada en el uso de tecnologías avanzadas en ámbitos críticos. Una supervisión que prácticamente ya no existe con la revocación de la Orden Ejecutiva de 2023.

El liderazgo de OpenAI es indiscutible, pero no sólo se mide en su capacidad de cómputo, talento en IA y control sobre modelos fundacionales, sino también en su capacidad de definir estándares éticos, marcos de gobernanza y narrativas claras sobre lo que significa “de forma segura y al servicio de toda la humanidad”, como la que promulgan.

Al convertirse en el referente que es y ampliando sus facultades como lo ha venido haciendo, OpenAI también asume el riesgo de convertirse en juez y parte de un ecosistema donde las reglas aún se están escribiendo y que no todos escriben por igual.


    Analista especializada en Colombia y Ecuador y reportera principal en temas de Inteligencia Artificial.

    Especializada en temas de derechos humanos y de género en entornos digitales, política pública y regulación TIC, con enfoque ético, violencia digital, espectro, redes 5G, IoT, chips e Identidad digital. También sigue la agenda TIC de Venezuela y Panamá.

    viernes, 14 de marzo de 2025

    Todas las grandes IA han ignorado las leyes del copyright. Lo alucinante es que sigue sin haber consecuencias

    Publicado en Xataka
    https://www.xataka.com/legislacion-y-derechos/todas-grandes-ia-han-ignorado-leyes-copyright-alucinante-que-sigue-haber-consecuencias






    Todas las grandes IA han ignorado las leyes del copyright. Lo alucinante es que sigue sin haber consecuencias
    La reciente demanda de grupos editoriales franceses a Meta es otro ejemplo más de la lucha contra la violación de los derechos de autor al entrenar modelos de IA

    Javier Pastor

     

    Las editoriales francesas están hartas y acaban de demandar a Meta
    por violación del copyright. No son las primeras ni serán las últimas,
    pero el problema no es ese: el problema es que las empresas de IA
    han usado contenidos con derechos de autor para entrenar sus
    modelos, y es como si no pasara nada.


    Todo sigue igual. Han pasado más dos años desde que 
    Getty denunciara a Stable Diffusion, a la que acusaba de robar sus
    fotos para entrenar su modelo de IA de generación de imágenes.
    Aquella fue la primera de una gran lista de demandas por
    exactamente lo mismo, pero a pesar del tiempo que ha transcurrido,
    no ha habido novedades al respecto. Es como si lo que hizo
    Stable Diffusion —como las demás— acabara en un segundo
    plano para los tribunales de justicia.

    ¿Copyqué? La sospecha sobre este tipo de comportamientos ha sido
    constante, y lo era ya antes de que se lanzase ChatGPT en
    noviembre de 2022. Meses antes, en junio, DALL-E fue acusada
    de basarse en imágenes con derechos de autor de creadores 
    que no recibían nada a cambio. Microsoft, OpenAI y GitHub
    también fueron demandados unas semanas antes del lanzamiento de ChatGPT, pero esta vez porque 
    GitHub Copilot había sido entrenado 
    sin permiso con código de diversos desarrolladores que
    no habían dado su permiso. Un juez de California 
    desestimó prácticamente todas las reclamaciones de los demandantes en julio de 2024.

    Pocas sentencias castigan a las empresas de IA. Por ahora
    las sentencias que se han producido, como la mencionada,
    dan la victoria aparente a las empresas de IA. Ocurrió
    por ejemplo con una demanda contra OpenAI,
    que la empresa logró ganar. Eso sí, dicha victoria puede salirle cara
    en su otra gran demanda pendiente con The New York Times,
    que puede alegar que sufrió un perjuicio demostrable.

    ¿Uso justo? El juicio del caso de The New York Times contra OpenAI
     se inició en enero de 2025 y es sin duda uno de los más importantes
    en este ámbito. La empresa liderada por Sam Altman
    —que ha usado todos los datos que ha podido— se escuda
    en que ellos hacen un "uso justo" de los contenidos para
    poder entrenar sus modelos. Lo curioso es que por un lado
    dicen eso, y por el otro han ido llegando a acuerdos millonarios con plataformas como Reddit y medios o editoriales como El País 
    precisamente para licenciar sus contenidos y evitar nuevas demandas.

    Lo de Meta es otro nivel. Los extremos a los que están llegando
    las empresas para tener datos de calidad con los que entrenar
    sus modelos de IA son extraordinarios. Perplexity se saltó las barreras
    de internet, pero lo de Meta fue aún más llamativo: hace poco
    supimos que habían utilizado más de 80 TB de libros descargados vía BitTorrent para entrenar su modelo. Muchos de ellos con derechos
     de autor, algo que ha provocado muchas críticas y la
    reciente demanda de algunos grupos editoriales franceses.  

    No parece haber castigo. Pero como decimos, ese robo histórico de
    propiedad intelectual parece estar ya asumido: no hay sentencias
     que hayan castigado esas violaciones del copyright de momento,
    y es como si colectivamente se hubieran ignorado esas violaciones
    porque la IA ofrece ventajas interesantes. Pero nos estamos
    olvidando de cómo las han obtenido... o eso parece.

    En Xataka | 5.000 "tokens" de mi blog están siendo usados
    para entrenar una IA. No he dado mi permiso

    MÉXICO: el presupuesto 2026 para las universidades estará por debajo de la inflación

    Publicado en  La Jornada https://www.jornada.com.mx/2025/09/10/politica/004n1pol#:~:text=La%20mayor%C3%ADa%20de%20las%20universidades,Egreso...