Mostrando entradas con la etiqueta Extractivismo de datos. Mostrar todas las entradas
Mostrando entradas con la etiqueta Extractivismo de datos. Mostrar todas las entradas

jueves, 4 de diciembre de 2025

MÉXICO: soberanía editorial vs extractivismo digital y el "infantilismo de izquierda"

Publicado en Nexos
https://ciencia.nexos.com.mx/la-caverna-de-lenin/




La caverna de Lenin

Raúl Marcó del Pont Lalli

noviembre 30, 2025


Ideologías, espejismos y políticas públicas en la comunicación científica

Platón imaginó una caverna donde los prisioneros confundían las sombras proyectadas en la pared con la realidad. Hoy, en el terreno de la comunicación de la ciencia, corremos el riesgo de habitar una caverna semejante, aunque con matices modernos: ya no se trata de sombras de objetos, sino de ideologías que proyectan sus propios reflejos sobre la pared del conocimiento. Entre ellas, el discurso sobre la soberanía editorial en América Latina ocupa un lugar central. La metáfora de Lenin, que en su momento apostó por la claridad revolucionaria frente a los engaños burgueses, se vuelve aquí provocadora: como en una caverna del líder bolchevique, ciertos discursos se blindan bajo un ropaje ideológico que promete emancipación, pero que corre el riesgo de oscurecer las dinámicas y una visión informada y crítica de la edición académica y de la inteligencia artificial (IA).

El documento al que nos referimos aquí / Conversatorio virtual “Soberanía editorial e inteligencia artificial” – una propuesta para un webinario sobre soberanía editorial e inteligencia artificial– es un ejemplo elocuente de este fenómeno. Presenta una narrativa coherente y atractiva: América Latina ha construido, gracias a proyectos como SciELO, Redalyc, AmeliCA o LA Referencia, una infraestructura pública de comunicación científica que resiste el embate de las editoriales comerciales y defiende el conocimiento como bien común. Frente al extractivismo digital de las grandes tecnológicas, se propone una agenda de soberanía: cláusulas anti-extractivismo, acuerdos regionales, licencias específicas y preservación distribuida.

El planteamiento tiene virtudes: denuncia prácticas de apropiación inequitativa, señala riesgos de dependencia tecnológica y subraya el papel del Estado en la preservación de los bienes comunes. Pero como toda ideología, construye una caverna donde ciertas luces brillan demasiado y otras quedan en penumbra. Veamos.

El espejismo del extractivismo


Uno de los ejes centrales del texto es la analogía entre el uso de artículos en acceso abierto para entrenar modelos de IA y el extractivismo de recursos naturales en América Latina. La imagen es poderosa: así como los minerales o el petróleo han sido explotados por potencias extranjeras, también los artículos financiados con fondos públicos se convierten en materia prima gratuita para la industria tecnológica global.

El problema es que esta analogía, aunque sugerente, distorsiona. En primer lugar, los datos no son recursos finitos: no se agotan por usarse, sino que se multiplican. Además, equiparar automáticamente el entrenamiento de modelos con desposesión invisibiliza la complejidad de la circulación del conocimiento en red. ¿No se supone que el acceso abierto busca precisamente que cualquiera –sea estudiante, ciudadano, empresa o laboratorio– pueda reutilizar los resultados de la investigación? Reclamar reciprocidad es legítimo; convertir el acceso abierto en un espacio vigilado, en cambio, corre el riesgo de traicionar su espíritu original.

La metáfora del extractivismo, útil como provocación política, se vuelve peligrosa como diagnóstico: nos encierra en la caverna ideológica donde toda interacción con corporaciones globales es vista como saqueo, y donde las posibilidades de cooperación, regulación compartida o beneficio mutuo se esfuman.

La soberanía como espantapájaros


El segundo gran eje del documento es la soberanía editorial. Se la define como la capacidad de los sistemas nacionales y regionales para controlar la producción, evaluación y circulación del conocimiento. La idea, a primera vista, parece incuestionable: ¿quién podría oponerse a que los países de América Latina ejerzan control sobre su propia producción científica?

Sin embargo, hay un problema de fondo: la noción de soberanía, heredada del vocabulario político clásico, se aplica aquí como si la edición académica fuese un territorio. Y no lo es. El conocimiento circula en redes globales, atraviesa idiomas, se valida en comunidades internacionales. Pretender una soberanía plena en este terreno es tan ilusorio como pensar en un internet puramente nacional.

Más aún: la apelación constante a la soberanía puede derivar en nacionalismos editoriales que, bajo el pretexto de proteger, terminan aislando a las revistas y reduciendo su visibilidad. ¿Queremos revistas que solo dialoguen hacia dentro de la región, reforzando un circuito endogámico, o revistas capaces de incidir en las conversaciones globales? El dilema es real, y la ideología soberanista suele ofrecer respuestas simplistas.

La sombra de Lenin


Como en la alegoría platónica, los promotores de la soberanía editorial miran las sombras de los gigantes tecnológicos proyectadas en la pared y concluyen que todo lo que hay fuera de la caverna es opresión. Pero, como Lenin, confunden el diagnóstico político con una verdad absoluta y descuidan la complejidad del fenómeno.

En la práctica, las políticas públicas inspiradas en esta visión pueden conducir a callejones sin salida. Por ejemplo: si se establecen cláusulas “anti-extractivismo” demasiado rígidas, ¿qué pasará con la colaboración internacional? ¿Cómo se integrarán los proyectos latinoamericanos en la construcción de estándares de IA que son, inevitablemente, globales? ¿De qué manera se atraerán inversiones o se incentivará la innovación local si toda reutilización externa se etiqueta de colonialismo?

Un ejemplo reciente que ilustra lo desencaminados que podemos estar. En 2016, la noticia era que el maestro de go de DeepMind, AlphaGo, derrotaba a uno de los mejores jugadores mundiales. Una nueva versión del jugador, AlphaGo Zero, superó a AlphaGo por cien partidas a cero. AlphaGo se programó originalmente a partir de un conjunto de datos de más de 100 000 partidas de Go, como punto de partida para su propio autoaprendizaje. Por el contrario, AlphaGo Zero se programó solo con las reglas esenciales del Go. Lo sorprendente es que, a través del aprendizaje profundo, AlphaGo Zero aprendió todo desde cero. La naturaleza misma de la complejidad del programa se construyó inicialmente a través de movimientos aleatorios en el tablero de Go; a través de millones y millones de partidas jugadas contra sí mismo, AlphaGo Zero actualizó su propio sistema para convertirse en el jugador más fuerte de la historia del juego. Tal vez debamos enfocarnos el asunto de otra forma, y evitar así que terminemos discutiendo asuntos irrelevantes.

La caverna ideológica promete protección, pero puede convertirse en prisión.

Lo que queda en la penumbra

Más allá de las metáforas, lo que resulta más preocupante del documento es aquello que calla o apenas menciona. Se habla mucho de “soberanía”, pero poco de calidad editorial. Se denuncia el extractivismo, pero casi nada se dice sobre la precariedad laboral de quienes sostienen las revistas en la región: editores con sueldos bajos, evaluadores sin reconocimiento, sistemas obsoletos de gestión.

Tampoco se aborda con claridad la crisis de confianza en el proceso de revisión por pares, donde la IA no es solo amenaza, sino también posible aliada para agilizar, transparentar y diversificar la evaluación. En vez de pensar cómo integrar la IA en los flujos editoriales para mejorar la calidad de las revistas, se la reduce a una máquina extractora de datos. Se habla de licencias y cláusulas, pero no de capacitación, experimentación ni innovación tecnológica dentro de nuestras propias comunidades.

Esta mirada de la IA es estrecha, carece de matices y resulta poco informada. La diversidad de este fenómeno es tan grande que resiste muchas de las encorsetadas definiciones que circulan. Anthony Elliott (2022, p. 5) enlista algunas de ellas para describir esta diversidad y riqueza que las discusiones de Secihti parecen obviar:

  1. la creación de máquinas o programas informáticos capaces de realizar actividades que se considerarían inteligentes si las realizaran seres humanos;
  2. una combinación compleja de mejoras aceleradas en tecnología informática, robótica, aprendizaje automático y big data para generar sistemas autónomos que rivalizan con las capacidades humanas o las superan;
  3. formas de pensamiento impulsadas por la tecnología que realizan generalizaciones de manera oportuna basándose en datos limitados;
  4. el proyecto de producción automatizada de significados, signos y valores en la vida sociotécnica, como la capacidad de razonar, generalizar o aprender de la experiencia pasada;
  5. el estudio y diseño de “agentes inteligentes”: cualquier máquina que perciba su entorno, actúe para maximizar su objetivo y optimice el aprendizaje y el reconocimiento de patrones;
  6. la capacidad de las máquinas y los sistemas automatizados para imitar el comportamiento inteligente humano;
  7. la imitación de la inteligencia biológica para facilitar que la aplicación de software o las máquinas inteligentes actúen con diversos grados de autonomía.

Al obsesionarse con la defensa frente al enemigo externo, se descuidan las debilidades internas.

De la caverna al ágora

¿Cómo salir de la caverna de Lenin? No se trata de abandonar la crítica ni de rendirse al mercado. Se trata de abrir espacios de diálogo que reconozcan la ambivalencia de la IA y de las plataformas globales. Sí, hay dinámicas de concentración y riesgo de dependencia; pero también hay oportunidades para visibilizar la producción científica latinoamericana, para crear colaboraciones inéditas y para fortalecer la infraestructura regional con estándares abiertos realmente interoperables.

En lugar de convertir la soberanía en un fetiche, podríamos hablar de interdependencia justa. No se trata de blindarnos en un reducto, sino de negociar desde una posición de fortaleza: mejorar la calidad de nuestras revistas, profesionalizar a los equipos editoriales, invertir en innovación tecnológica, experimentar con IA en la gestión de manuscritos y la detección de plagio. Solo así podremos sentarnos en la mesa global con voz propia; no como víctimas, sino como actores capaces de influir en la agenda.

Del mismo modo, en lugar de repetir la metáfora del saqueo, podríamos pensar en esquemas tratando de equilibrar la reciprocidad. No cerrar puertas, sino establecer reglas claras de juego.

Epílogo: política con luz propia


Platón advertía que salir de la caverna era doloroso: la luz del sol enceguece al principio. De igual modo, abandonar los espejismos ideológicos cuesta. Pero la comunicación científica en América Latina no necesita más cavernas; necesita horizontes abiertos. Si reducimos el debate a consignas de soberanía y extractivismo, corremos el riesgo de quedarnos encerrados en un teatro de sombras.

La tarea, entonces, es doble. Por un lado, reconocer los logros de las iniciativas regionales que han defendido el acceso abierto frente a las lógicas comerciales abusivas. Por otro, escapar de la caverna ideológica para pensar en políticas públicas que combinen justicia cognitiva con realismo tecnológico. La IA no desaparecerá por decreto, y su relación con la edición científica será cada vez más estrecha. Ignorar esto sería, parafraseando a Lenin, un “infantilismo de izquierda” aplicado al mundo editorial.

La salida está en el ágora: en un debate abierto, plural, informado, donde la crítica no se confunda con el dogma y donde el futuro de la comunicación científica se construya con luces propias, no con sombras proyectadas.

Raúl Marcó del Pont Lalli

Editor de publicaciones académicas.


miércoles, 19 de noviembre de 2025

[LIBRO] Quem controla seus dados? Ciência Aberta, Colonialismo de Dados e Soberania na era da Inteligência Artificial e do Big Data

Quem controla seus dados? Ciência Aberta, Colonialismo de Dados e Soberania na era da Inteligência Artificial e do Big Data

ISBN digital: 9788572214742

ISBN impresso: Publicação apenas digital

DOI: 10.31560/pimentacultural/978-85-7221-474-2

Autor: Fabiano Couto Corrêa da Silva

https://www.pimentacultural.com/livro/quem-controla-dados/









Este livro investiga como a economia dos dados reconfigura poder, ciência e soberania, revelando continuidades entre a colonialidade histórica e a extração digital. A partir de uma perspectiva latino‑americana, discute tensões da Ciência Aberta e propõe caminhos ético‑políticos para uma governança justa de dados (FAIR/CARE), infraestrutura aberta e justiça epistêmica. Um convite à ação para que os dados sirvam às pessoas, e não o contrário.















SUMÁRIO Prefácio PARTE I FUNDAMENTOS TEÓRICOS E CONCEITUAIS CAPÍTULO 1 Introdução ao colonialismo de dados 1.1 A economia dos dados e as grandes corporações (Big Tech) 1.2 Assimetrias de poder e vigilância na era do Big Data 1.3 Marcos teóricos: dos estudos pós-coloniais à teoria crítica da informação 1.4 Paradoxos e contradições do colonialismo de dados 1.5 Resistências e alternativas emergentes 1.6 Dimensões psicológicas e subjetivas 1.7 Impactos ambientais e sustentabilidade 1.8 Perspectivas futuras e tendências emergentes CAPÍTULO 2 Ciência aberta: tensões, contradições e paradoxos 2.1 A evolução do conceito de ciência aberta 2.2 Princípios FAIR e democratização do conhecimento 2.3 Modelos de acesso aberto e sustentabilidade 2.4 Tensões entre abertura e controle 2.5 Algoritmos e curadoria: o poder invisível da descoberta 2.6 Ciência cidadã e participação democrática 2.7 Paradoxos da democratização científica 2.8 Alternativas e resistências à ciência aberta hegemônica 2.9 Perspectivas futuras PARTE II ANÁLISE CRÍTICA E IMPACTOS CAPÍTULO 3 O impacto do colonialismo de dados na produção científica e no conhecimento 3.1. Desigualdades na produção científica global (Norte global vs. Sul global) 3.2 Apropriação de dados científicos e parachute science 3.3. Epistemologias marginalizadas e colonialidade do saber na ciência 3.4. Relação entre dados abertos e assimetria de poder 3.5 Algoritmos, vieses e reprodução de desigualdades CAPÍTULO 4 Fraudes científicas, manipulação de dados e práticas antiéticas 4.1. Fundamentos históricos e teóricos da integridade científica 4.1.1 Evolução histórica dos conceitos de integridade científica 4.1.2 Marcos normativos contemporâneos e codificação internacional 4.1.3 Dimensões neurobiológicas e psicológicas da ética científica 4.1.4 Teorias contemporâneas de integridade científica 4.1.5 Colonialismo científico e estruturas de poder global 4.2. A crise contemporânea: dimensões e magnitude do problema 4.2.1. Análise estatística da escalada de retrações científicas 4.2.2 Paper Mills: a industrialização sistemática da fraude 4.2.3 Impactos da pandemia COVID-19 na integridade científica 4.2.4 Dimensões econômicas e desperdício de recursos sistêmicos 4.3 Inteligência artificial: a transformação fundamental da má conduta científica 4.3.1 A dupla face da revolução tecnológica: promessa e ameaça simultâneas 4.3.2 Tipologia expandida da má conduta científica digitalmente amplificada 4.3.3 Geração de conteúdo fraudulento: análise multimodal 4.3.4 Implicações epistemológicas: redefinindo a natureza da evidência 4.3.5 Características identificáveis, padrões de detecção e evolução estratégica: uma análise integrada da sofisticação operacional 4.4 Ferramentas de detecção e contramedidas tecnológicas: a evolução da resposta científica à fraude digital 4.4.1 Evolução sistêmica dos paradigmas de detecção: da análise manual à inteligência artificial interpretável 4.4.2 Detecção avançada de manipulação visual: forense digital e análise de autenticidade 4.4.3 Análise linguística avançada e detecção de conteúdo gerado por ia: além da detecção de plágio tradicional 4.4.4 Tecnologias emergentes e direções futuras: blockchain, computação quântica e realidade aumentada 4.5 Dimensões éticas e sociais: impactos sistêmicos na confiança pública e coesão epistêmica 4.5.1 Erosão da confiança pública e fragmentação do consenso científico: uma análise multidimensional 4.5.2 Colonialismo científico e vulnerabilidades sistêmicas: reprodução de desigualdades globais 4.5.3 Dimensões neurobiológicas e psicológicas: estresse sistêmico e degradação do julgamento ético 4.5.4 Responsabilidade institucional e transformação cultural: além da responsabilização individual 4.6 Perspectivas futuras e recomendações estratégicas: construindo um sistema científico íntegro e equitativo 4.6.1 Visão integrada para governança da integridade científica: coordenação multi-escalar e abordagem sistêmica 4.6.2 Recomendações tecnológicas: inovação responsável, interpretabilidade e democratização 4.6.3 Reformas institucionais: transformação de incentivos, culturas, e estruturas de poder 4.6.4 Cooperação internacional e soberania científica: equidade global e justiça epistêmica 4.6.5 Roadmap de implementação: estratégias integradas de curto, médio e longo prazo para transformação sistêmica da integridade científica PARTE III ESTUDOS DE CASO E EXPERIÊNCIAS PRÁTICAS CAPÍTULO 5 Estudos de caso internacionais 5.1. Caso 1: Dados genéticos indígenas e desrespeito ao consentimento (o caso Havasupai) 5.2. Caso 2: SciELO e a democratização da comunicação científica na América Latina 5.3. Caso 3: universidades e Big Tech - a dependência de plataformas privadas na educação pública 5.4. Caso 4: Governança de dados em saúde durante a pandemia de COVID-19 CAPÍTULO 6 Experiências brasileiras e latino-americanas 6.1 Políticas de ciência aberta no Brasil 6.2 Repositórios institucionais e iniciativas regionais 6.3 Desafios da implementação da LGPD na pesquisa 6.4 Movimentos de software livre e tecnologias sociais 6.5 Ciência cidadã e participação comunitária 6.6 Redes de colaboração Sul–Sul PARTE IV PROPOSTAS E PERSPECTIVAS FUTURAS CAPÍTULO 7 Propostas e soluções para uma governança de dados justa e ética 7.1 Soberania de dados e marcos regulatórios 7.2 Infraestruturas abertas e tecnologias decoloniais 7.3 Princípios éticos e inclusão 7.4 Recomendações de políticas públicas e iniciativas comunitárias 7.5 Modelos alternativos de financiamento e sustentabilidade 7.6 Educação e capacitação para soberania digital CAPÍTULO 8 Perspectivas futuras e agenda de pesquisa 8.1 As novas fronteiras tecnológicas da pesquisa científica 8.2 inteligência artificial (IA) como catalisadora e desafio 8.3 Ciência descentralizada (DeSci) e a promessa da Blockchain 8.4 O dilema central: abertura global, soberania digital e o espectro do colonialismo digital 8.5 Agenda de pesquisa para uma ciência aberta, equitativa e soberana 8.6 Inclusão e Ciência Cidadã: democratizando a produção do conhecimento além da academia Considerações finais: rumo a uma transformação sistêmica da ciência global Referências Bibliográficas Sobre o Autor Índice remissivo

domingo, 16 de noviembre de 2025

Inteligencia artificial y extractivismo digital: quién gana con los data centers en América Latina

Publicado en El País
https://elpais.com/america/2025-10-17/inteligencia-artificial-y-extractivismo-digital-quien-gana-con-los-data-centers-en-america-latina.html




Inteligencia artificial y extractivismo digital: quién gana con los data centers en América Latina

OpenAI ha anunciado la construcción de un mega datacenter en Argentina, el último de este tipo en la región. Los gobiernos deben exigir participación local y condiciones de reinversión que prometan más que acceso gratuito a ChatGPT

 Natalia Zuazo

En julio de este año, volé 11.000 kilómetros desde Buenos Aires para hacer un curso sobre políticas y derecho de la inteligencia artificial en la Universidad de Lovaina, una enorme estructura neogótica fundada en 1425 donde hoy, en sus varios campus, 57.000 estudiantes cursan las disciplinas más variadas. Al promediar la formación, la directora nos dividió en grupos y nos dio la consigna para un examen con defensa grupal: “La huella ambiental está sobrevalorada”. Y entré en pánico. Pero allí estaba, frente a un ejercicio académico clásico y efectivo: sostener una postura con argumentos, aunque no sean los propios.

Puestos a trabajar, les confesé a mis compañeros que sería difícil defender un argumento por todos lados insostenible. Como latinoamericana, seguía las noticias sobre el impacto socioambiental de nuevos centros datos construidos en los últimos años en Querétaro (México), Santiago (Chile) o Río Grande do Norte (Brasil), que se sumaban a los desarrollados en regiones de escasez de agua probada, como Arizona (Estados Unidos) o Aragón (España).

Con poca evidencia, mi grupo delineó sus argumentos: que todavía no existen en el mundo métricas comunes para medir el impacto ambiental de la IA, que era imposible separar las huellas de la IA de otras tecnologías asociadas a ella, que otras industrias contaminan mucho más (este me hacía sentir en segundo grado de primaria) y que siempre las tecnologías cuando se empiezan a desarrollar causan más impacto que beneficios. Mi grupo aprobó. Afortunadamente, el examen final fue un ensayo donde defendí otra idea: si el debate de las políticas tecnológicas sigue estancado en el falso dilema de la regulación que frena la innovación, las grandes empresas tecnológicas seguirán avanzando, de mano de aliados locales, a los que poco les interesa el buen vivir de sus comunidades.

El mega datacenter del optimismo

Tres meses después, la mañana del feriado por el Día de la Diversidad Cultural (que el presidente Javier Milei volvió a llamar Día de la Raza), Sam Altman, CEO de OpenAI, anunció una inversión de 25.000 millones de dólares para construir un mega datacenter en algún lugar de la Patagonia Argentina. La noticia se conocía luego de una negociación políticoeconómica del presidente argentino con Donald Trump donde Scott Bessent, el Secretario del Tesoro de Estados Unidos, había afirmado que su país “estaba comprando barato” para “vender caro”. Bessent no aclaró a qué mercancías se refería, pero horas después Altman reveló un acuerdo preliminar para construir infraestructura de inteligencia artificial y capacidad de cómputo para su empresa. El proyecto, señaló, sería parte de Stargate, con su socio Oracle y sus financistas de riesgo, la japonesa SoftBank y la emiratí MGX. En Argentina, una poco conocida Sur Energy (con un reconocido empresario tech, Emiliano Kagierman detrás), se encargaría de la gestión local.

El proyecto, que promete producir 500 MW de potencia en su fase final, además podría beneficiarse del RIGI, una ley aprobada durante el gobierno de Milei para que, a cambio de divisas extranjeras, que se les garantice a los empresarios 30 años de exención de todo tipo de impuestos y protección ante disputas, no obligación de contratar empleo local y condiciones laxas para la compra a proveedores locales. 

Días después, con Milei y Trump desde Washington en las pantallas, OpenAI publicó un comunicado oficial: “Este hito va más allá de la mera infraestructura; se trata de poner la IA en manos de más personas en todo Argentina”. En ninguna parte del posteo se hablaba de empleo, contratación de producción industrial local, evaluaciones de impacto ambiental o control de infraestructura estratégica.

Aun cuando el acuerdo parecía “del siglo XVI, cuando la plata del Potosí financió imperios europeos y dejó a la región en la pobreza” (como escribió el ingeniero Luis Papagni), gran parte del mundo tecnológico expresó su euforia. “Esto va a traer otras inversiones. Donde llega OpenAI, llegan otros”, dijo un speaker de marketing digital en la televisión, mientras otros periodistas y panelistas asentían. ¿Cómo se podría comprobar ese beneficio para nuestro país, sin regulaciones más claras y evaluaciones de impacto socioambientales? El optimismo mediático era tal que la pregunta por ahora no tenía lugar.

¿Extractivismo o producción?

La pregunta, aunque vieja, sigue siendo fundamental. Argentina (y otros países de la región) tienen condiciones más que atractivas para las inversiones de las big tech: extensos kilómetros con poblaciones limitadas, zonas con agua y minerales, centrales nucleares e hidroeléctricas, personal altamente calificado formado en universidades públicas de prestigio mundial. Por su parte, OpenAI tiene un problema crucial en la dependencia de capacidad de cómputo con empresas como Google Cloud, Amazon Web Services, Azure y Oracle. Hasta para un negociador novato sería clara la ventaja estratégica para nuestros países. O, al menos, la posibilidad de un intercambio con condiciones más exigentes. SoftBank, que fue también un importante inversor de Uber, lo sabe: la empresa de transporte tuvo que flexibilizar sus condiciones para poder operar en ciudades como Madrid, Barcelona o Londres, permitiendo sistemas híbridos que no ahogaran a los conductores locales.  

En el caso del impacto ambiental, los datos son elocuentes. En Querétaro, en las áreas donde funcionan estas instalaciones, el Gobierno tuvo que racionar el agua y hay familias que reciben el servicio apenas cada tres días. Además, la Comisión Federal de Electricidad (CFE) se vio obligada a aumentar en un 50% la capacidad de generación de las centrales eléctricas aledañas (que utilizan combustibles fósiles) debido al consumo de los datacenters. Está claro: en el caso de las tecnológicas, pero también en el de otras industrias con consumo intensivo de recursos como la minería, se necesitan hacer intercambios. Para algunas regiones con décadas de pobreza y falta de trabajo, la llegada de las inversiones se presenta como una oportunidad, al menos momentánea, de progreso. El trade-off no es sencillo. Sin embargo, para que ese beneficio no sea momentáneo, se necesita algo más que la fe en “el derrame” económico. Los gobiernos nacionales y locales deben exigir, por ejemplo, participación local en empleo e insumos, y condiciones de reinversión futura que prometan más que un acceso gratuito a ChatGPT para la gente del lugar, como sucedió en Emiratos Árabes con la construcción de un datacenter Stargate.

Finalmente, nada de esto ocurre en el vacío. Desde que asumió, el Gobierno de Milei mantiene una disputa con las universidades públicas, a las que les niega la actualización presupuestaria que les corresponde según la ley, que equivaldría a una ínfima parte de una inversión como la propuesta por OpenAI. Los socios locales de la iniciativa, como Emiliano Kagierman, son referentes mundiales de las tecnologías formados en esa universidad y sistema público de ciencia que hoy lucha por su subsistencia. El CEO de esta exitosa compañía de innovación satelital lo reconoció: “Nosotros pudimos hacerlo porque existían (en Argentina) 40 años de inversión sistemática en tecnología, en el sector espacial y en el nuclear”. Y admite que, para su empresa, el apoyo del Ministerio de Ciencia y Tecnología y el INVAP, una empresa dedicada al desarrollo de tecnologías complejas, “son un caso de libro de lo que el Estado puede hacer para abrir oportunidades y aportar capacidades”. Tal vez el verdadero progreso consista en que una parte de esas inversiones vuelva al origen: a ese sistema de universidades y ciencia pública que, aun en crisis, sigue siendo la razón por la cual hoy formamos parte del mapa global de la inteligencia artificial.

Natalia Zuazo es coordinadora del Programa de Tecnología, Política y Comunicación de FLACSO Argentina.



domingo, 20 de octubre de 2024

Especialista de Harvard lanza advertencia sobre el colonialismo digital y la explotación de datos en la época de IA

Publicado en El Universal
https://www.eluniversal.com.mx/tendencias/especialista-de-harvard-lanza-advertencia-sobre-el-colonialismo-digital-y-la-explotacion-de-datos-en-la-epoca-de-ia/




Especialista de Harvard lanza advertencia sobre el colonialismo digital y la explotación de datos en la época de IA

Este enfoque contrasta con el control actual ejercido por actores industriales y gubernamentales

Paola Ricaurte advierte sobre los peligros del extractivismo digital.

Tendencias| 10/10/2024 |

10/10/2024 
Matías Torino
Ver perfil

Durante el Foro DemocracIA, celebrado el 24 de septiembre de 2024 en Buenos Aires, Paola Ricaurte, profesora del Centro Berkman Klein de la Universidad de Harvard, alertó sobre los peligros del colonialismo digital y la creciente explotación de datos personales en la época de la inteligencia artificial. La especialista subrayó que la IA no solo perpetúa la explotación de recursos naturales, sino también de los datos personales de los más vulnerables, exacerbando las desigualdades económicas y sociales, especialmente en América Latina.

Paola Ricaurte señaló que un puñado de grandes corporaciones tecnológicas concentra el poder, convirtiendo a los datos en la "nueva materia prima" de un sistema extractivo que beneficia a unos pocos. "Nuestros datos son el nuevo petróleo", advirtió la académica, destacando cómo la IA amplifica las desigualdades y refuerza la violencia sistémica que ya sufren las comunidades marginadas.

Colonialismo digital y su impacto en las comunidades vulnerables

El colonialismo digital es un concepto que la profesora de Harvard utiliza para describir cómo las potencias tecnológicas globales extraen datos y recursos de manera similar a los métodos de explotación colonial en siglos anteriores. Este fenómeno no solo afecta a nivel individual, sino que también tiene profundas implicaciones en términos de justicia social. La especialista destacó que la extracción de datos por parte de corporaciones tecnológicas crea profundas brechas económicas y sociales y muchas veces, las comunidades más afectadas no tienen voz ni poder para controlar sus propios datos.

Paola Ricaurte defiende un modelo de gobernanza comunitaria para el desarrollo de la IA, uno que permita a las comunidades locales participar activamente en el diseño y uso de las tecnologías. Según ella, esto es crucial para evitar que las tecnologías sigan siendo diseñadas desde la perspectiva de las élites de poder. En este contexto, los proyectos basados en principios feministas buscan transformar las estructuras de violencia sistémica que afectan a los grupos más vulnerables, promoviendo el desarrollo de tecnologías que respondan a sus necesidades reales.

La académica concluyó haciendo un llamado urgente para crear regulaciones que aseguren la transparencia en el uso de los datos y para desarrollar tecnologías que sean sostenibles, equitativas y centradas en el bienestar humano. En una era donde la inteligencia artificial está en auge, la advertencia de Paola Ricaurte destaca la necesidad de reevaluar cómo se utilizan los datos y quién se beneficia de ellos, con el fin de construir un futuro más justo y equitativo.

Indicadores de calidad para revistas de ciencias sociales en la era de la bibliometría narrativa

  Circulado en lista  ThinkEPI ThinkEPI   < 000011958d4229c1-dmarc-request@listserv.rediris.es > Indicadores de calidad para revistas ...