martes, 11 de febrero de 2025

iniciativa CANGARU: por la unificación de las directrices para el uso de IA en artículos científicos

Publicado en Science
https://www.science.org/content/article/should-researchers-use-ai-write-papers-group-aims-community-driven-standards 


¿Deben los investigadores utilizar la IA para escribir artículos? El grupo aspira a unas normas impulsadas por la comunidad

Según estimaciones recientes, herramientas como ChatGPT podrían utilizarse en entre el 1% y el 5% de los manuscritos.

16 Abr 2024

Por Holly Else



¿Cuándo y cómo deben ayudar a redactar artículos de investigación los programas de inteligencia artificial (IA) que generan textos, como ChatGPT? En los próximos meses, 4000 investigadores de diversas disciplinas y países darán su opinión sobre las directrices que podrían adoptarse ampliamente en la edición académica, que ha estado lidiando con chatbots y otras cuestiones de IA durante el último año y medio. El grupo que está detrás de esta iniciativa quiere sustituir el panorama poco sistemático de las directrices actuales por un único conjunto de normas que represente el consenso de la comunidad investigadora. 


Conocida como CANGARU, la iniciativa es una asociación entre investigadores y editores, entre ellos Elsevier, Springer Nature, Wiley; representantes de las revistas eLife, Cell y The BMJ; así como el organismo industrial Committee on Publication Ethics. Según Giovanni Cacciamani, urólogo de la Universidad del Sur de California que dirige CANGARU, el grupo espera publicar en agosto un conjunto definitivo de directrices que se actualizarán cada año debido a la «rápida evolución de esta tecnología». Las directrices incluirán una lista de las formas en que los autores no deben utilizar los grandes modelos de lenguaje (LLM) que potencian los chatbots y cómo deben revelar otros usos.


Desde que herramientas de IA generativa como ChatGPT se hicieron públicas a finales de 2022, editores e investigadores han debatido estas cuestiones. Algunos afirman que las herramientas pueden ayudar a redactar manuscritos si se utilizan de forma responsable, por ejemplo, en el caso de autores cuya lengua materna no sea el inglés. Otros temen que los estafadores científicos las utilicen para publicar rápidamente trabajos convincentes pero falsos. Según Tanya De Villiers-Botha, filósofa de la Universidad de Stellenbosch, la propensión de los LLM a inventarse cosas, combinada con su relativa fluidez en la escritura y un sistema de revisión por pares sobrecargado, «supone una grave amenaza para la investigación y la publicación científicas».  


Algunas revistas, como Science y Nature, y otros organismos ya han publicado normas sobre cómo pueden utilizar los científicos las herramientas de IA generativa en su trabajo. (El departamento de Noticias de Science es editorialmente independiente.) Esas políticas suelen establecer que las herramientas de IA no pueden ser autoras porque no pueden ser responsables del trabajo. También exigen a los autores que declaren dónde se han utilizado las herramientas.


Pero el nivel de orientación varía. En una política de diciembre de 2023, la Asociación STM, un organismo de comercio editorial, detalló los usos permitidos para la IA generativa y enumera otras áreas sobre las que los editores de revistas deben decidir caso por caso. Pero el anuncio de la Comisión Europea del mes pasado es menos prescriptivo, ya que afirma que los investigadores que utilicen estas herramientas deben hacerlo de forma transparente y seguir siendo responsables de su producción científica.


La variedad de directrices puede confundir a los investigadores. «Lo ideal sería hacer un gran esfuerzo por reunir todas estas normas en una sola que todo el mundo pudiera seguir», afirma Jean-Christophe Bélisle-Pipon, especialista en ética sanitaria de la Universidad Simon Fraser. «Una directriz estandarizada es necesaria y urgente», añade De Villiers-Botha.


Cacciamani dirige CANGARU en una revisión sistemática de la bibliografía pertinente, que servirá de base a las directrices sobre IA. A continuación, un grupo de investigadores, clínicos, informáticos, ingenieros, metodólogos y editores evaluará las directrices.


Pero algunos investigadores temen que la iniciativa no avance lo suficientemente rápido. «El mundo ya ha cambiado significativamente en los últimos 10 meses», afirma Daniel Hook, responsable de la empresa de análisis de datos Digital Science. «La velocidad de avance de la IA generativa no hará sino aumentar».


El número de investigadores que utilizan estas herramientas en sus escritos parece dispararse. Algunos casos de uso no revelado e ilícito de ChatGPT son evidentes. A veces añade a los textos fases reveladoras como «corte de conocimientos en septiembre de 2021». «Son auténticas pistolas humeantes», afirma el informático de la Universidad de Toulouse Guillaume Cabanac, que ha recopilado una lista de más de 70 artículos que llevan el sello de ChatGPT no declarado para el blog Retraction Watch.


Otros han buscado pistas más sutiles sobre el texto LLM. En un preprint publicado en arXiv el 25 de marzo, Andrew Gray, que trabaja en apoyo bibliométrico en el University College de Londres, calcula que algo más del 1% de los artículos publicados en 2023, unos 60.000 en total, contenían una presencia desproporcionada de palabras inusuales que se sabe que están correlacionadas con el texto generado por LLM. Otro análisis, publicado en bioRxiv por Yingfeng Zheng, de la Universidad Sun Yat-sen, y sus colegas el 26 de marzo, investigó 45.000 preprints antes y después de que ChatGPT estuviera disponible y calculó que el 5% de estos últimos incluían texto generado por IA.


Philip Shapira, que estudia la gobernanza de las tecnologías emergentes en la Universidad de Manchester, afirma que las cifras podrían estar subestimadas. «Ahora es fácil encontrar en Internet recomendaciones y herramientas para 'eliminar' términos y frases comunes generados por ChatGPT», afirma. Y es probable que las herramientas de IA mejoren su estilo de redacción en el futuro, lo que dificultará aún más su detección. 


Una vez elaboradas las directrices sobre IA, el siguiente paso será asegurarse de que los autores las cumplen, afirma Sabine Kleinert, subdirectora de la revista médica The Lancet, que participa en CANGARU. Esto puede hacerse pidiendo a los autores que declaren el uso de la IA cuando presenten sus trabajos. Para frenar el uso de la IA también se requerirá «la experiencia de los editores... así como una sólida revisión por pares y políticas adicionales de integridad y ética de la investigación», añade Kleinert.


En última instancia, según Bélisle-Pipon, el éxito de las directrices dependerá también de que las instituciones y los organismos que las conceden incentiven el cumplimiento de las políticas y penalicen a los investigadores que no las respeten. «Todos sabemos que el quid de la cuestión es cómo evalúan a los investigadores los financiadores y los comités de contratación, titularidad y promoción».



//////////////////

Should researchers use AI to write papers? Group aims for community-driven standards Tools such as ChatGPT may be used for 1% to 5% of manuscripts, recent estimates suggest

16 Apr 2024



When and how should text-generating artificial intelligence (AI) programs such as ChatGPT help write research papers? In the coming months, 4000 researchers from a variety of disciplines and countries will weigh in on guidelines that could be adopted widely across academic publishing, which has been grappling with chatbots and other AI issues for the past year and a half. The group behind the effort wants to replace the piecemeal landscape of current guidelines with a single set of standards that represents a consensus of the research community.  

Known as CANGARU, the initiative is a partnership between researchers and publishers including Elsevier, Springer Nature, Wiley; representatives from journals eLife, Cell, and The BMJ; as well as industry body the Committee on Publication Ethics. The group hopes to release a final set of guidelines by August, which will be updated every year because of the “fast evolving nature of this technology,” says Giovanni Cacciamani, a urologist at the University of Southern California who leads CANGARU. The guidelines will include a list of ways authors should not use the large language models (LLMs) that power chatbots and how they should disclose other uses.

Since generative AI tools such as ChatGPT became public in late 2022, publishers and researchers have debated these issues. Some say the tools can help draft manuscripts if used responsibly—by authors who do not have English as their first language, for example. Others fear scientific fraudsters will use them to publish convincing but fake work quickly. LLMs’ propensity to make things up, combined with their relative fluency in writing and an overburdened peer-review system, “poses a grave threat to scientific research and publishing,” says Tanya De Villiers-Botha, a philosopher at Stellenbosch University.  

Some journals, including Science and Nature, and other bodies have already released rules about how scientists can use generative AI tools in their work. (Science’s News department is editorially independent.) Those policies often state that AI tools cannot be authors because they cannot be accountable for the work. They also require authors to declare where the tools have been used.

But the level of guidance varies. In a December 2023 policy, the STM Association, a publishing trade body, spelled out allowed uses for generative AI and lists other areas on which journal editors should decide case by case. But last month’s announcement from the European Commission is less prescriptive, stating that researchers using these tools should do so transparently and remain responsible for their scientific output.  

The variety of guidelines could be confusing for researchers. “Ideally there should be a big effort to bring all these rules together into one big set that everyone can follow,” says Jean-Christophe Bélisle-Pipon, a health ethicist at Simon Fraser University. “A standardized guideline is both necessary and urgent,” De Villiers-Botha adds.

Cacciamani is leading CANGARU in a systematic review of the relevant literature, which will inform the AI guidelines. A panel of researchers, clinicians, computer scientists, engineers, methodologists, and editors will then evaluate the guidelines.  

But some researchers fear the initiative is not moving fast enough. “Already the world has changed significantly in the last 10 months,” says Daniel Hook, head of data analytics firm Digital Science. “The speed of progress of generative AI will only increase.”

The number of researchers using the tools in their writing appears to be soaring. Some cases of undisclosed, illicit ChatGPT use are obvious. It sometimes adds to text telltale phases such as “knowledge cutoff in September 2021.” “These are real smoking guns,” says University of Toulouse computer scientist Guillaume Cabanac, who compiled a list of more than 70 articles that bear the hallmarks of undeclared ChatGPT for the blog Retraction Watch

Others have looked for subtler clues to LLM text. In a preprint posted on arXiv on 25 March, Andrew Gray, who works in bibliometric support at University College London, estimates that just over 1% of articles published in 2023, about 60,000 in total, contained a disproportionate occurrence of unusual words known to be correlated with LLM-generated text. Another analysis, posted on bioRxiv by Yingfeng Zheng at Sun Yat-sen University and colleagues on 26 March, investigated 45,000 preprints before and after ChatGPT became available and estimated 5% of the latter include AI-generated text.

Philip Shapira, who studies the governance of emerging technologies at the University of Manchester, says the numbers could be underestimates. “It is now easy to go online to find recommendations and tools to ‘weed out’ common ChatGPT-generated terms and phrases,” he says. And AI tools will likely improve their writing style in the future, making it more challenging to spot. 

Once AI guidelines are drawn up, the next step will be to ensure that authors stick to them, says Sabine Kleinert, deputy editor of medical journal The Lancet, which is involved in CANGARU. This can be done by asking authors to declare the use of AI when they submit papers. Reining in AI use will also require “the expertise of editors … as well as robust peer review and additional research integrity and ethical polices,” Kleinert adds.

Ultimately, Bélisle-Pipon says, the success of the guidelines will also depend on institutions and granting agencies to incentivize adherence to policies—and to penalize researchers who don’t. “We all know that the crux of the matter is how funders and recruitment, tenure, and promotion committees evaluate researchers.”

**************

lunes, 10 de febrero de 2025

BIBLAT lanza "Monitor Latinoamericano de Dictaminadores" de revistas académicas


Nueva Sección en BIBLAT: 

Monitor Latinoamericano de Dictaminadores



El Monitor de Dictaminadores es una iniciativa de Biblat  y SciELO México (DGBSDI-UNAM) diseñada para dar visibilidad a los dictaminadores de las revistas indizadas en estas bases
de dato
s Este monitor permite no solo reconocer el trabajo de los dictaminadores, sino también realizar consultas estadísticas que
reflejan la relación de internacionalidad de las revistas, destacando la contribución en el proceso editorial.

Instrucciones para utilizar el Monitor de dictaminadores


1. Navegación Básica

   - Panel de control: A la izquierda, verás un menú de navegación
que te permite cambiar entre diferentes páginas del tablero.
   -  Filtros: En la parte superior de las páginas, puedes aplicar filtros
para ajustar los datos que se muestran.

¡Únase al Monitor Latinoamericano de Dictaminadores!

En 
 Biblat  y SciELO México , reconocemos la importancia de mantener altos estándares de calidad en las revisiones de nuestras revistas.
Por ello, les invitamos a formar parte del Monitor de Dictaminadores Solicitamos su colaboración enviando el listado de revisores que participaron en el año 2023 con el siguiente formato al correo: coordinacion_scielo6@dgb.unam.mx





INSTRUCCIONES

Navegación Básica:

  1. Panel de control: A la izquierda, encontrarás un
    menú de navegación para cambiar entre diferentes secciones del tablero.


2. Filtros: En la parte superior de cada página, puedes aplicar filtros para ajustar los datos según tus necesidades.


En BIBLAT y SciELO México, valoramos la calidad en la revisión académica. Te invitamos a colaborar enviando el listado de revisores que participaron en el año 2023 con el siguiente formato al correo: coordinacion_scielo6@dgb.unam.mx.

 🔎¡Explora la plataforma y participa!

Accede ahora y contribuye al fortalecimiento de la evaluación académica


Ingresa al Monitor Latinoamericano de Dictaminadores                                                                            






 








domingo, 9 de febrero de 2025

IA = brutal consumo de agua dulce y energía + control monopólico de datos

Publicado en La Jornada
https://www.jornada.com.mx/2025/02/08/opinion/015a1eco




La insoportable levedad de la inteligencia artificial

Silvia Ribeiro*

El desarrollo vertiginoso, no regulado y generalmente innecesario de los sistemas de inteligencia artificial ha provocado un aumento brutal en el consumo de agua dulce y energía a nivel global y especialmente en las comunidades donde se instalan grandes centros de datos. Esto trae aparejado un aumento global de los gases de efecto invernadero que aceleran la crisis climática, además de impactos ambientales y en la salud.

No es un desarrollo empujado por la demanda. Tiene poderosos actores que lo impulsan agresivamente: la oligarquía tecnológica que ahora gobierna desde Estados Unidos sin tener ni un voto (https://tinyurl.com/2z3faabt). Es una estrategia deliberada para aumentar la dependencia de los usuarios y el control sobre datos y conductas de éstos.

Tecnologías con inteligencia artificial general existen desde hace décadas y pueden o no ser útiles para automatizar algunas actividades, dependiendo del contexto, necesidades, alternativas, costos e impactos que conllevan. El desarrollo reciente de la llamada inteligencia artificial generativa (IAG) se diferencia en que no sólo recopila y sistematiza datos, también produce nuevo contenido que puede ser textos, imágenes, sonido, incluso nuevas formas biológicas. Ese tipo de inteligencia artificial sustenta aplicaciones como ChatGPT y similares. Requiere procesos amplios de entrenamiento con grandes modelos de lenguaje y conjuntos de datos cada vez más voluminosos, todo lo cual conlleva un aumento exponencial del uso de computadoras, servidores, infraestructura y, por tanto, de energía, agua, recursos y generación de contaminación y basura (https://tinyurl.com/39vzy8mv).

La digitalización en todas las ramas industriales y su uso individual en plataformas y redes sociales genera inmensos volúmenes de datos que para funcionar requiere muchas computadoras interconectadas, o sea centros de datos que puedan almacenar, procesar, extrapolar, reinterpretar. Estos centros son la base física de las nubes de computación. Actualmente, tres de las mayores empresas de la oligarquía tecnológica –Amazon, Microsoft y Google– controlan 66 por ciento de las nubes de computación a nivel global y, junto a Meta (dueña de Facebook), 70 por ciento de los cables submarinos.

Cecilia Rikap, de la University College de Londres, entrevistada en la serie Data Vampires del analista canadiense Paris Marx, explica que las grandes tecnológicas establecieron una estrategia deliberada de centralización de la información digital en sus meganubes. Se presenta ante empresas, instituciones y gobiernos como una solución eficiente para no crear su propia infraestructura digital, con contratos que supuestamente pueden interrumpir. En realidad, debido a las permanentes actualizaciones de programas y aplicaciones de interconexión, se hace muy difícil a los que contratan esos servicios poder retirarse e incluso controlar el uso de su información. Las dueñas de las nubes ganan vendiendo el servicio, mientras aumentan su acceso a más datos y ganan con el negocio de vender o usar la interpretación de éstos para influenciar elecciones de consumo, políticas o cualquier otra (https://tinyurl.com/y5ammzkw).

En 2018 había 430 grandes centros de datos a nivel global. A finales de 2023 eran 992, actualmente superan el millar. Con el uso de inteligencia artificial generativa, se estima que la cantidad de grandes centros de datos se duplicará cada 4 años, la mayoría a hiperescala, categoría para los que tienen más de 5 mil servidores y 10 mil pies cuadrados de superficie. Por ejemplo, Amazon Web Services (AWS) está instalando un centro con más de 50 mil servidores en Minnesota (https://tinyurl.com/yxmy3a7x).

Con el éxito de ventas de ChatGPT, todas las grandes tecnológicas han invertido en desarrollar aplicaciones con IAG. China acaba de anunciar DeepSeek, una aplicación mucho más barata que las de EU (https://tinyurl.com/mup99p2t). También han incorporado sistemas de IAG a los buscadores, teléfonos móviles y diversos dispositivos, a menudo sin dar opción a no usarlos, lo cual multiplica exponencialmente la demanda de agua y energía sin que podamos decidir sobre ello.

Según Sasha Luccioni, científica informática entrevistada en Data Vampires, la diferencia entre hacer un cálculo matemático en una calculadora manual con batería solar o usar ChatGPT, puede multiplicar hasta 50 mil veces el uso energía. Una pregunta y respuesta en ChatGPT o un buscador con inteligencia artificial consume entre 0.5 y un litro de agua (https://tinyurl.com/yxmy3a7x). Además, sujeto a frecuentes errores y sin dar fuentes.

El requerimiento de agua y energía es brutal y ha llevado a conflictos con varias poblaciones donde se instalan los centros de datos (https://tinyurl.com/5n8rtfnd). Singapur, Irlanda y Países Bajos han establecido moratorias a la instalación de dichos centros por el alto uso de recursos.

En América Latina, los principales sitios de instalación de megacentros de datos son Sao Paulo, Brasil, y Querétaro, México. En tercer lugar está Quilicura, en Santiago de Chile, donde ya hay protestas de la población contra estas instalaciones (https://tinyurl.com/5n8rtfnd).

Los impactos locales y globales ambientales, de salud, sociales, políticos de la IAG son graves y sobre todas y todos. Las ganancias son para un pequeño grupo de ultrarricos.

Investigadora del grupo ETC

sábado, 8 de febrero de 2025

ESPAÑA: «Medición del acceso abierto en las universidades españolas y CSIC (2019-2023)»

Informe «Medición del acceso abierto en las universidades españolas y CSIC (2019-2023)» y difusión «I Workshop sobre modelos de Publicación Científica»

Estimadas compañeras y compañeros:

Ya está disponible en el repositorio de REBIUN el informe Medición del acceso abierto en las universidades españolas y el CSIC (2019-2023): https://hdl.handle.net/20.500.11967/1437. Este informe ha sido elaborado por la Línea 2, dentro del Ámbito 3: Definir y contribuir a la transformación de los modelos de negocio en la comunicación científica, Área de actuación 1: Monitorización de la ciencia abierta. Este informe da continuidad a los realizados en años anteriores y supone el inicio de su publicación anual. 

 Los datos muestran un crecimiento importante del porcentaje de artículos en acceso abierto: del 75,6% (77.731 publicaciones) en el año 2022 se pasó al 80% (82.413 publicaciones) en 2023. La medición refleja que a partir del 2020 se produce un importante incremento en la publicación en revistas híbridas, probablemente debido a los acuerdos transformativos CRUE-CSIC y los que las instituciones hayan firmado a nivel individual. En este informe, por primera vez, se proporcionan los datos de la vía diamante.

También nos complace informaros de que ya están disponibles en la web de REBIUN las presentaciones del I Workshop sobre Modelos de Publicación Científica: Más Allá de los Acuerdos Transformativos, que tuvo lugar el pasado 13 de diciembre: https://hdl.handle.net/20.500.11967/1429.

Además, el vídeo completo de la jornada está accesible en el siguiente enlace: https://www.youtube.com/watch?v=HXVHGYEQWFQ

 

Un abrazo, Consuelo Gallego Secretaría técnica REBIUN Teléfono: +0034 681 810 624  Correo: rebiun@crue.org www.rebiun.org


viernes, 7 de febrero de 2025

El acceso abierto "híbrido" se acelera y el acceso abierto "Gold" baja: ambos cobran APCs, pero las primeras siguen cobrando suscripción

Publicado en blog Universo abierto
https://universoabierto.org/2025/02/07/descenso-en-revistas-totalmente-oa-y-crecimiento-del-modelo-hibrido/





Descenso en revistas totalmente OA y crecimiento del Modelo Híbrido

Pollock, Dan. «New Data: Fully OA Journals Output Shrank in 2023, But Hybrid OA Made Up the Lost Ground.» Open Access Scholarly Publishers Association (OASPA). February 5, 2025. https://www.oaspa.org/news/fully-oa-journals-output-shrank-in-2023-but-hybrid-oa-made-up-the-lost-ground/.

Se analiza los cambios en la publicación de artículos en acceso abierto (OA) durante 2023. A partir de datos proporcionados por los miembros de OASPA, se examina la evolución del acceso abierto en dos modelos principales: revistas completamente OA y revistas híbridas, que combinan suscripción con la opción de publicar en acceso abierto.

Uno de los hallazgos más significativos del informe es la reducción, por primera vez, en el número de artículos publicados en revistas totalmente OA, lo que representa un cambio en la tendencia de crecimiento sostenido de este modelo en años anteriores. Sin embargo, esta disminución ha sido compensada por el crecimiento de la publicación en revistas híbridas, lo que sugiere que los autores y las instituciones pueden estar favoreciendo modelos de acceso abierto dentro de revistas tradicionales de suscripción en lugar de optar exclusivamente por revistas totalmente OA.

En detalle, el informe señala que los miembros de OASPA publicaron cerca de 1,2 millones de artículos en 2023, con un crecimiento de solo el 4%, que representa una desaceleración significativa en comparación con años anteriores. Esta cifra es solo una cuarta parte del crecimiento experimentado en 2022, y una décima parte del promedio a largo plazo. En el período 2000-2023, los miembros de OASPA publicaron un total cercano a los 6,4 millones de artículos, lo que representa una aceleración notable desde 2011, cuando la cantidad de publicaciones era mucho menor.

El dato más destacable es la disminución de artículos en revistas completamente OA por primera vez en 2023, con una caída del 0,67% en comparación con un crecimiento del 14% en 2022. Sin embargo, el modelo híbrido experimentó un crecimiento del 22%, lo que compensó la pérdida en las revistas totalmente OA, haciendo que la producción total de artículos en acceso abierto aumentara globalmente. Además, se mantiene la preeminencia de la licencia Creative Commons Attribution (CC BY), que representa el 82% de los artículos en revistas completamente OA, y el 60% en revistas híbridas.

Por otro lado, el artículo señala que la consolidación de la producción de acceso abierto sigue siendo alta, con tres editores principales (MDPI, Elsevier y Springer Nature) representando el 54% del total de publicaciones de OASPA en 2023. La tendencia hacia una mayor concentración en un número reducido de editoriales sigue siendo prominente, especialmente en lo que respecta a las licencias CC BY en revistas completamente OA.

El informe también destaca la consolidación del uso de la licencia Creative Commons Attribution (CC BY), que continúa ganando terreno, especialmente en revistas híbridas. Esta licencia es la más flexible en términos de reutilización de contenido, permitiendo a los autores retener los derechos sobre sus trabajos mientras garantizan un acceso sin restricciones. Su predominio refuerza la tendencia hacia una mayor apertura y reutilización de la investigación.

Otro aspecto relevante es la concentración de la producción científica en acceso abierto en un número reducido de editoriales y revistas. A pesar del crecimiento del modelo OA en general, la publicación de artículos sigue estando dominada por unas pocas grandes editoriales comerciales, lo que podría influir en los costos de publicación y en la equidad en el acceso a la ciencia abierta.

La ralentización del crecimiento de las revistas completamente OA y la consolidación del modelo híbrido plantean interrogantes sobre el futuro del acceso abierto y su sostenibilidad dentro del ecosistema académico. Además, los datos presentados pueden servir como referencia para investigadores, bibliotecarios y responsables de políticas científicas en la toma de decisiones sobre modelos de publicación y financiamiento de la investigación en acceso abierto.

jueves, 6 de febrero de 2025

LIBRO: El costo de la conexión

Descargar libro: https://z-lib.gs/dl/37806966/8ade62


El costo de la conexión

Nick Couldry



¿Cuánto vale un tuit? ¿Cuánto cuesta "estar" en las redes sociales? ¿Cómo se explica el flujo constante (y excesivo) de información en un mundo supuestamente interconectado por la "democrática" Internet? Nick Couldry y Ulises Mejias intentan responder estas y otras tantas preguntas que surgen a propósito de lo que ellos han denominado colonización de datos.


Si el colonialismo histórico anexaba territorios, sus recursos y los cuerpos que trabajaban en ellos, la acumulación de poder del colonialismo de datos es a la vez más simple y más profunda: la captura y el control de la propia vida humana a través de la apropiación de los datos que pueden extraerse de ella para obtener beneficios. Si esto es así, entonces, así como que el colonialismo histórico creó el combustible para el futuro ascenso del capitalismo industrial, de manera análoga el colonialismo de datos está allanando el camino para un capitalismo basado en la explotación de los datos.


El costo de la conexión es una exploración profunda sobre cómo la permanente extracción de información sobre nuestras vidas íntimas está reconstruyendo tanto los mercados globales como nuestras personalidades. Este libro representa un paso enorme hacia la comprensión de la etapa actual del capitalismo, en la cual el insumo definitivo es la información más cruda de la vida humana.

Naomi Klein





Google presenta una IA cocientífica

Publicado en  La Jornada https://www.jornada.com.mx/noticia/2025/02/20/ciencia-y-tecnologia/google-presenta-una-ia-cocientifica-5676 Google ...