Mostrando entradas con la etiqueta Capitalismo de vigilancia. Mostrar todas las entradas
Mostrando entradas con la etiqueta Capitalismo de vigilancia. Mostrar todas las entradas

viernes, 7 de octubre de 2022

LinkedIn hizo experimentos con millones de sus usuarios, sin avisarles

Publicado en The New York Times en español
https://www.nytimes.com/es/2022/09/28/espanol/linkedin-experimento-social.html?campaign_id=42&emc=edit_bn_20220930&instance_id=73290&nl=el-times&regi_id=84791720&segment_id=108523&te=1&user_id=f8de94556199c222487f9ed6b135dc23



LinkedIn hizo experimentos con millones de sus usuarios, sin avisarles

Un estudio que analizó esas pruebas descubrió que las conexiones sociales relativamente débiles eran más útiles para encontrar trabajo que los vínculos sociales más fuertes.

Por Natasha Singer

Natasha Singer, reportera de negocios de The New York Times, imparte un curso de periodismo de responsabilidad tecnológica en el programa de verano del Times para estudiantes de secundaria.

28 de septiembre de 2022

LinkedIn hizo experimentos con más de 20 millones de usuarios durante cinco años que, aunque se efectuaron con la intención de mejorar cómo funciona la plataforma para los miembros, podrían haber afectado los ingresos de algunas personas, según un nuevo estudio.

En experimentos realizados en todo el mundo de 2015 a 2019, LinkedIn varió al azar la proporción de contactos débiles y fuertes que sugirió su algoritmo “Gente que podrías conocer” (el sistema automatizado de la compañía para recomendar conexiones nuevas a sus usuarios). Se detallaron las pruebas en un estudio publicado este mes en la revista Science cuyos coautores son investigadores de LinkedIn, el Instituto Tecnológico de Massachusetts (MIT, por su sigla en inglés), la Universidad de Stanford y la Facultad de Negocios de la Universidad de Harvard.

Los experimentos algorítmicos de LinkedIn podrían sorprender a millones de personas porque la compañía no le notificó a los usuarios sobre las pruebas.

Las grandes empresas tecnológicas como LinkedIn, la red de contactos profesionales más grande del mundo, hacen experimentos a gran escala de manera rutinaria en los que prueban versiones de las funciones de la aplicación, de los diseños web y de los algoritmos en distintas personas. La práctica de larga data, llamada test A/B, tiene el objetivo de mejorar las experiencias del consumidor y mantenerlos involucrados, lo que ayuda a las compañías a hacer dinero a través de cuotas de membresías prémium o publicidad. A menudo, los usuarios no tienen idea de que las compañías hacen pruebas con ellos. (The New York Times usa esas pruebas para evaluar la redacción de los titulares y tomar decisiones sobre los productos y artículos que la empresa lanza al mercado).

No obstante, los cambios hechos por LinkedIn indican cómo esas modificaciones a algoritmos muy usados pueden convertirse en experimentos de ingeniería social con consecuencias que pueden alterar la vida de muchas personas. Expertos que estudian los efectos de la computación en la sociedad afirmaron que realizar experimentos prolongados y a larga escala en las personas que podrían afectar sus perspectivas laborales, de maneras invisibles para ellas, generaba cuestionamientos sobre la transparencia de la industria y la supervisión de la investigación.

Michael Zimmer, profesor asociado de Informática y director del Centro de Datos, Ética y Sociedad en la Universidad Marquette, comentó: “Los hallazgos indican que algunos usuarios tuvieron mejor acceso a oportunidades de empleo o una diferencia significativa en el acceso a oportunidades de trabajo. Este es el tipo de consecuencias a largo plazo que se necesita contemplar cuando pensamos en la ética de participar en esta clase de investigación de inteligencia de datos”.

El estudio en Science examinó una teoría influyente en sociología llamada “la fortaleza de los lazos débiles”, la cual indica que es más probable que las personas obtengan empleo y acceso a otras oportunidades a través de conocidos no tan cercanos que a través de amigos íntimos.

Los investigadores analizaron cómo los cambios al algoritmo de LinkedIn habían afectado la movilidad laboral de los usuarios. Descubrieron que los lazos sociales relativamente débiles en LinkedIn probaron tener el doble de efectividad para asegurar un empleo que los lazos sociales más fuertes.

En un comunicado, LinkedIn dio a conocer que durante el estudio había “actuado de conformidad” con las condiciones de uso y la política de privacidad de la compañía, así como con la configuración del usuario. La política de privacidad señala que LinkedIn usa los datos personales de los miembros con fines de investigación. El comunicado agregó que la empresa utilizó las técnicas de sociología más recientes y “no invasivas” para responder preguntas de investigación importantes “sin ninguna experimentación con los miembros”.

LinkedIn, que es propiedad de Microsoft, no respondió de manera directa a una pregunta sobre cómo había calculado la compañía las consecuencias potenciales a largo plazo de sus experimentos en el empleo y el estatus económico de los usuarios. Sin embargo, la empresa aseguró que la investigación no había dado una ventaja desproporcionada a algunos usuarios.

Karthik Rajkumar, un científico de investigación aplicada en LinkedIn que fue uno de los coautores del estudio, explicó que la meta de la investigación era “ayudar a las personas a escala. No se puso a nadie en desventaja para encontrar empleo”.

Sinan Aral, un profesor de administración y ciencia de datos en el MIT y autor principal del estudio, comentó que los experimentos de LinkedIn fueron una iniciativa para garantizar que los usuarios tuvieran igualdad de acceso a las oportunidades de empleo.

Aral precisó: “Hacer un experimento con 20 millones de personas y después implementar un algoritmo más adecuado para mejorar las perspectivas de empleo de todos como resultado de los conocimientos que adquiriste con eso es lo que ellos intentan hacer, no otorgar movilidad social a algunas personas y a otras no”. (Aral ha realizado análisis de datos para The New York Times y recibió una beca de investigación de Microsoft en 2010).

Los experimentos que involucran a los usuarios hechos por grandes empresas de internet tienen un historial irregular. Hace ocho años, se publicó un estudio de Facebook que describía cómo la red social había manipulado en secreto qué publicaciones aparecían en la sección de noticias de los usuarios para analizar la propagación de las emociones negativas y positivas en su plataforma. El experimento de una semana, llevado a cabo con 689.003 usuarios, de inmediato generó reacciones negativas.

El estudio de Facebook, cuyos autores incluían a un investigador de la empresa y a un profesor de Cornell, sostenía que las personas habían consentido implícitamente el experimento de manipulación de emociones cuando se habían registrado en Facebook. “Todos los usuarios están de acuerdo antes de crear una cuenta en Facebook”, decía el estudio, “lo que constituye un consentimiento informado para esta investigación”.


jueves, 3 de febrero de 2022

¿Qué ELSEVIER rastrea sus PDFs?

Publicado en VICE
https://www.vice.com/en/article/4aw48g/academic-journal-claims-it-fingerprints-pdfs-for-ransomware-not-surveillance 


Una revista académica afirma que toma huellas en los PDF para detectar "ransomware", no para vigilarlos

Elsevier incorpora un código único en cada artículo de revista académica que los usuarios descargan. Los investigadores de seguridad temen que esto pueda utilizarse para identificar a las personas que comparten los PDF.

por Lorenzo Franceschi-Bicchierai

31 de enero de 2022,

Uno de los mayores editores de artículos académicos del mundo dijo que añade una huella digital única a cada PDF que los usuarios descargan en un intento de evitar el ransomware, no de prevenir la piratería. 

[ ransonware: El malware de rescate, o ransomware, es un tipo de malware que impide a los usuarios acceder a su sistema o a sus archivos personales y que exige el pago de un rescate para poder acceder de nuevo a ellos. Las primeras variantes de ransomware se crearon al final de la década de los 80, y el pago debía efectuarse por correo postal. Hoy en día los creadores de ransomware piden que el pago se efectúe mediante criptomonedas o tarjetas de crédito. https://es.malwarebytes.com/ransomware/ ]

Elsevier defendió esta práctica después de que un investigador independiente descubriera la existencia de las huellas digitales únicas y compartiera sus hallazgos en Twitter la semana pasada. 

"El identificador en el PDF ayuda a prevenir los riesgos de ciberseguridad para nuestros sistemas y los de nuestros clientes; no hay metadatos, PII [Información de Identificación Personal] o datos personales capturados por estos", dijo un portavoz de Elsevier en un correo electrónico a Motherboard. "La toma de huellas dactilares en los PDF nos permite identificar posibles fuentes de amenazas para poder informar a nuestros clientes y que ellos actúen en consecuencia. Este enfoque se utiliza habitualmente en toda la industria editorial académica".

Cuando se le preguntó a qué riesgos se refería, el portavoz envió una lista de enlaces a artículos de noticias sobre ransomware.

Sin embargo, Elsevier tiene un largo historial de persecución de personas que piratean o comparten sus artículos académicos de pago. En 2015, Elsevier demandó a SciHub (Elsevier sued SciHub), el "Pirate Bay de la ciencia", que alberga millones de artículos de revistas, incluidos los de Elsevier. En el pasado, la empresa se ha enfrentado a críticas (the company has faced criticism) por adquirir otras plataformas académicas que distribuían artículos de forma gratuita en un intento de acaparar el mercado. Algunas universidades han boicoteado a Elsevier en el pasado (have boycotted Elsevier in the past), y la empresa ha recurrido a amenazas legales contra otros sitios que alojan artículos académicos en línea. La compañía ha tenido problemas de ciberseguridad antes. En 2019, dejó un servidor abierto a la Internet pública y expuso las direcciones de correo electrónico y las contraseñas de los usuarios (it left a server open to the public internet and exposed user email addresses and passwords). 

No está claro exactamente cómo la huella digital de cada PDF descargado podría realmente prevenir el ransomware. Jonny Saunders, un candidato a doctor en neurociencia de la Universidad de Oregón, que descubrió la práctica, dijo que cree que Elsevier está tratando de vigilar a sus usuarios y evitar que la gente comparta la investigación sin pagar a la compañía. 

"El subtexto es bastante fuerte para mí", dijo Saunders a Motherboard en un chat en línea. "Esas brechas/ransomes son realmente un pretexto para decir que 'las universidades tienen que bloquear las cuentas para que la gente no pueda hojear los PDF'". 

"Cuando tienes cosas que no quieres que otras personas regalen, quieres alguna forma de saber quién las está regalando, ¿no?", añadió.




¿Conoce alguna otra empresa u organización que realice este tipo de seguimiento? Nos encantaría que nos lo dijeras. Puedes ponerte en contacto con Lorenzo Franceschi-Bicchierai de forma segura en Signal en el +1 917 257 1382, Wickr/Telegram/Wire @lorenzofb, o en el correo electrónico lorenzofb@vice.com

Además, según Saunders, la afirmación de Elsevier de que no se capturan metadatos o datos personales es poco sincera, dado que la propia empresa admite que utiliza este sistema para identificar de quién son las cuentas vulneradas. 

"Decir que los identificadores únicos *en sí mismos* no contienen PII es una evasiva semántica: la forma en que funcionan estos identificadores es para poder compararlos posteriormente con otra información de identificación almacenada en el momento de la descarga, como la huella digital del navegador, las credenciales institucionales, etc.", dijo Saunders. "Justificarlos como una herramienta de protección contra el ransomware es una admisión directa de que estos códigos están destinados a identificar al descargador: ¿cómo ayudarían si no es identificando la cuenta o el sistema comprometido?"

El portavoz de la compañía no respondió a las alegaciones de Saunders.


*************************************

jueves, 7 de octubre de 2021

Las bibliotecas públicas son mejores que Google... que está sesgado por intereses comerciales y es guardián del "capitalismo de vigilancia"

Publicado en Creative Good
https://creativegood.com/blog/21/public-libraries-vs-google.html


Las bibliotecas públicas son mejores que Google

Por Mark Hurst - 27 de agosto de 2021

La búsqueda de Google es ahora un páramo de pago. Y eso es exactamente lo que predijeron Larry Page y Sergey Brin, los fundadores de Google, en su documento académico de 1998 (academic paper) sobre el diseño de los motores de búsqueda. Del Apéndice A:

  • Los motores de búsqueda financiados por la publicidad estarán inherentemente sesgados hacia los anunciantes y alejados de las necesidades de los consumidores. Los ingresos por publicidad suelen ser un incentivo para ofrecer resultados de búsqueda de baja calidad.

Google, que hoy en día ingresa más dólares por publicidad que nunca, es pésimo con los "resultados de búsqueda de baja calidad" de los que Larry y Sergey escribieron. El descenso de la otrora gran UX de Google lo describe muy bien (described well) Elaine Scattermoon: "Ha sido un viaje ver a Google pasar de adivinar lo que podrías querer decir, a mostrarte lo que querías decir, a mostrarte lo que los vendedores desearían que hubieras querido decir en su lugar".

El desprecio de Google por sus usuarios, y su correspondiente devoción por cualquiera que les pague, revelan el vacío en el corazón de la empresa. Esto ayuda a explicar el largo historial de incompetencia de Google en las aplicaciones de mensajería (incompetence in messaging apps), tal y como ha cubierto Ars Technica esta semana. Más de 20 lanzamientos de servicios de mensajería en Google dieron como resultado exactamente cero éxitos. Estoy algo familiarizado con esto, ya que en Customers Included conté la historia del lanzamiento en 2009 de Google Wave, la plataforma condenada que hizo... algo... que nadie llegó a entender.

Ya sea por el decrépito motor de búsqueda de Google, por el vasto cementerio de lanzamientos anteriores o por el modelo de negocio subyacente de vigilancia y manipulación, el olor a podrido es tan intenso que es un milagro que Google siga siendo considerado un líder tecnológico. Por supuesto, la máquina de hacer dinero sigue funcionando en la búsqueda, así como en YouTube (cuyo algoritmo, profundamente poco ético, ya he comentado written about), pero no hay ninguna razón para que los usuarios tengan un respeto especial por Google. En todo caso, dado su constante historial de comportamiento poco fiable (consistent track record of untrustworthy behavior), la gente debería evitar activamente a Google. 

Google’s contempt for its users, and its corresponding devotion to anyone who will pay them, reveal the emptiness at the heart of the enterprise. This helps explain Google’s long history of incompetence in messaging apps, as covered by Ars Technica this week. Over 20 launches of messaging services at Google resulted in exactly zero successes. I’m somewhat familiar with these, as in Customers Included I told the story of the 2009 launch of Google Wave, the doomed platform that did... something... that no one ever figured out.

Whether you consider Google’s decrepit search engine, the vast graveyard of past launches, or the underlying business model of surveillance and manipulation, the smell of rot is so intense that it’s a wonder Google is still considered a tech leader. Sure, the money machine is still churning within Search, as well as in YouTube (whose deeply unethical algorithm I’ve written about), but there’s no reason users should afford Google any particular respect. If anything, given its consistent track record of untrustworthy behavior, people should actively avoid Google. 

Desgraciadamente, está ocurriendo justo lo contrario, ya que Google parece estar emergiendo como la fuente por defecto para cualquier pregunta, grande o pequeña. El uso común de Google como verbo - "simplemente búscalo en Google"- muestra hasta qué punto la gente ha confundido a Google con una autoridad real. Pero Google no es una autoridad. Es un esquema publicitario de pago.


Una alternativa mejor

La buena noticia es que se está empezando a hablar de alternativas a Google que no son de pago.

Esta semana hablé (spoke) en Techtonic con Shannon Mattern, profesora de la New School y autora del nuevo libroA City Is Not a Computerr. Entre otras cosas, hablamos de la biblioteca pública como alternativa superior a Google. En su libro, Mattern cita a Safiya Noble (otra invitada de Techtonic en el pasado past Techtonic guest), que escribe:

Lo que necesitamos es una mayor inversión por parte de los contribuyentes en alternativas cívicas, que nos ayuden a entender las plataformas de publicidad digital como Google, Facebook y otras por lo que son, en lugar de pensar en ellas como la biblioteca pública, que no lo son.

Noble tiene toda la razón. Google, como plataforma que prácticamente inventó el capitalismo de la vigilancia, no es una biblioteca. Podríamos describirla más exactamente como la antítesis de una institución cívica, en el sentido de que su objetivo final es la explotación, más que el servicio, de la comunidad. Independientemente de la cantidad de páginas que se capturen en su índice de búsqueda, o de los sectores tecnológicos que monopolice, Google no merece ninguna confianza, ni autoridad, en la esfera pública.

Es importante entender el desajuste entre la forma en que Google se presenta a la sociedad y lo que realmente pretende hacer. Tomemos, por ejemplo, las torres de vigilancia LinkNYC de Google que asolan el paisaje urbano de la ciudad de Nueva York. Google afirma que son puramente para la comodidad de los neoyorquinos que buscan wifi gratuito. La realidad se aclara cuando se protege la vista contra el llamativo brillo de la pantalla plana y se mira hacia arriba, donde están colocadas las cámaras ocultas. 

Google está cambiando la ciudad. LinkNYC está diseñado y gestionado por una filial de Google, Sidewalk Labs, que tiene su sede en Hudson Yards, el nuevo megadesarrollo de Nueva York que podría describirse mejor como un barrio sin alma y de vigilancia corporativa. Mattern habla extensamente de Hudson Yards en su libro (book). También lo tratamos en nuestra entrevista (interview) de Techtonic.

Mattern lo repite una y otra vez: lo que realmente crea una ciudad, y por extensión una sociedad, no son las plataformas informáticas que cuantifican una porción de la realidad estrechamente definida. (El libro incluye un entretenido ensayo sobre los cuadros de mando de las ciudades, esas lecturas digitales en las salas de control que parecen impresionantes pero que nunca parecen lograr mucho). Algunos sistemas informáticos pueden ser útiles, cuando apoyan la gestión legítima de los servicios de la ciudad, pero las plataformas digitales nunca deben considerarse la razón de ser de una ciudad, y mucho menos -como ocurre a veces en Silicon Valley- venerarse como la máxima expresión de la humanidad. 

En su brillante ensayo de 2017, titulado también  A City Is Not a Computer, Mattern cita al escritor tecnológico Paul McFedries: "La ciudad es un ordenador, el paisaje urbano es la interfaz, tú eres el cursor y tu smartphone es el dispositivo de entrada". Esta visión del mundo encaja perfectamente con los objetivos de Google: los seres humanos no son más que usuarios, o quizás personas usadas, que renuncian a toda capacidad de acción para ajustarse a un sistema algorítmico que beneficia a los oligarcas que tienen la máxima autoridad en la sociedad. Contrasta esto con las bibliotecas públicas, o los archivos, o los museos, que ofrecen una perspectiva muy diferente. Tal vez sería así: "La ciudad no es un ordenador, el paisaje urbano es un lugar para la comunidad, y tú eres un ciudadano con poder, y derechos, para construir una sociedad mejor".

Aparte de todo esto, las bibliotecas públicas son sencillamente la mejor oferta que existe: es como pedir libros en Amazon, excepto que es gratis. Muchas bibliotecas públicas ofrecen formularios de pedido en línea para el préstamo de libros. (El sitio WorldCat.org ayuda a buscar en muchas colecciones de las bibliotecas.) Y lo que es mejor, las bibliotecas tienen sucursales físicas donde puedes buscar en las estanterías y sacar todo lo que veas allí, en el momento.

Reconozco, como subrayó Mattern en nuestra entrevista, que no todo es perfecto en nuestras bibliotecas y otras instituciones cívicas. Ni mucho menos: a medida que la economía se ha inclinado a favor de los monopolios depredadores, empresas como Google han despojado nuestros recursos compartidos que podrían haberse destinado a instituciones más fiables. En lugar de trabajar por el bien común, nuestras finanzas han sido capturadas por estafadores que pagan por jugar en Silicon Valley y que no tienen ningún interés en la vida cívica. Sin recursos, las bibliotecas (y otras) piden a su personal niveles heroicos de respuesta para mantener las cosas en funcionamiento, mientras las crisis a largo plazo se hacen más profundas. Mientras tanto, los beneficios de Google crecen, y crecen, y crecen. No es una lucha justa.

Lo que sí es posible es que algún día veamos un cambio. Y quizás más pronto que tarde. En algún momento, las cosas cambiarán para mejor, cuando la gente decida convertirse en ciudadanos en lugar de consumidores; ser activistas y no sólo usuarios; y comprometerse con la acción colectiva, en lugar de intentar "cambiar el mundo" por su cuenta con un clic o un golpe. Dadas las crisis entrelazadas de la economía, el cambio climático, el tejido social y la confianza cívica, esta transformación puede parecer menos probable. Pero ya se sabe lo que dicen del momento más oscuro. El siguiente momento es el amanecer.

(Escuche mi entrevista/Listen to my interview con Shannon Mattern, o descargue el episodio del podcast/ podcast episode. Aquí están las notas del programa y los comentarios de los oyentes/show notes and listener comments).

Publica un comentario sobre esta columna/Post a comment on this column (para los miembros/members de Creative Good)

P.D. Además de las bibliotecas públicas que figuran en WorldCat.org, y mi favorita personal, la New York Public Library, recomiendo estas alternativas a Google: mejores motores de búsqueda/search engines, mejores servicios de correo electrónico/email services y mejores navegadores web/web browsers, todo ello en mi sitio GoodReports.com.

P.P.D. Para más información sobre las ciudades inteligentes, escucha mis entrevistas con Ben Green, autor de The Smart Enough City (July 6, 2020) y Jathan Sadowski, autor de Too Smart: How Digital Capitalism is Extracting DataControlling Our Lives, and Taking Over the World (May 11, 2020). Para saber más sobre la ciudad de Nueva York, escucha a Jeremiah Moss, autor de Vanishing New York (Aug 26, 2019) y a Craig Taylor, autor de New Yorkers (July 19, 2021).


sábado, 24 de julio de 2021

lunes, 10 de mayo de 2021

Datos biométricos y capitalismo de vigilancia

Publicado en La Jornada
https://www.jornada.com.mx/2021/05/08/opinion/017a1eco


Datos biométricos y capitalismo de vigilancia

Silvia Ribeiro*

La reciente creación de un Padrón Nacional de Usuarios e Telefonía Móvil, que obliga al registro de los datos biométricos de todos los usuarios, ha abierto un debate necesario sobre sus impactos potenciales. No obstante, faltan elementos de contexto fundamentales.

La conversión de nuestras características personales y de identificación a datos digitales, son un componente clave del capitalismo actual, llamado atinadamente capitalismo de vigilancia por Shoshana Zuboff. Los datos biométricos, especialmente rasgos faciales e iris, no sólo identifican a una persona, también son de enorme relevancia para interpretar emociones, lo cual es esencial para la lucrativa industria de venta de futuros conductuales, o sea, la apuesta y manipulación de nuestras conductas para empujarnos a hacer lo que deseen las empresas / gobiernos que lo paguen. Además, son fundamentales para el reconocimiento facial desde cámaras de vigilancia, incluso en aglomeraciones, sea con fines de control, represión o comerciales.

Todo se hace más grave porque el volumen de datos que implica este tipo de registro en poblaciones enteras sólo se puede almacenar y manejar en enormes nubes de computación, un sector brutalmente concentrado en pocas empresas. Más de la mitad del mercado global lo tienen las estadunidenses Amazon AWS, Google Cloud, Microsoft Azure e IBM, seguidas de la china Alibaba. También Oracle y Dell tienen porcentajes significativos. Las tres primeras, junto a Apple y Facebook, controlan, además, más de la mitad del mercado global de plataformas electrónicas, y junto a las chinas Alibaba y Tencent, más de dos tercios. Aunque las grandes empresas telefónicas colecten los datos –y los puedan usar para sus negocios– la mayoría, como Telcel y Telmex, contratan servicios de las anteriores.

Peor aún, varios niveles de gobierno, desde el federal a estados y municipios, albergan los datos electrónicos de parte o todas sus actividades –incluso registros de población o sectores de ésta (como estudiantes, pacientes, derechohabientes de diversos sistemas)– en esas mismas nubes, conectadas a sus plataformas. Dirán que hay regulaciones sobre acceso de éstas a los datos que almacenan, gestionan y/o dan servicio, pero además de muy insuficientes, no pueden controlar realmente lo que hacen estas gigantes. Hay ejemplos de abuso con impactos tremendos, como el de Cambridge Analytica que resultó en la elección de Trump, Macri, Bolsonaro y otros.

Esta nueva forma de organización capitalista se basa en la digitalización en todos los rubros industriales, junto a la plataformización electrónica de relaciones sociales, transacciones de comercio, financieras, compras domésticas y otras. También la instalación de mecanismos cada vez más avanzados de vigilancia dentro y fuera de los hogares, para avanzar en la conexión de todos los aparatos, para conocer –y sugerir, persuadir, empujar– nuestras conductas.

Todo ello ha causado múltiples impactos sociales, económicos, políticos, ambientales, laborales, en la salud; la mayoría negativos. Con la pandemia, la invasión electrónica de nuestra vida y trabajo se expandió enormemente e incorporó masivamente aspectos esenciales como educación, atención de la salud y reuniones de todo tipo.

Aunque la vigilancia con fines de control y represión por parte de gobiernos y autoridades es un efecto extraordinariamente magnificado y facilitado en esta nueva era capitalista, el interés principal de las empresas es la vigilancia de nuestra vida cotidiana para poder influir y manipular nuestras elecciones de consumo, políticas, sociales y educativas.

La extracción y almacenamiento de datos de las personas (además de ciudades, ecosistemas, territorios) que son cruzados con otros registros, manejados e interpretados con algoritmos de inteligencia artificial son una de las principales fuentes de ganancia de las gigantes tecnológicas. Es tan cuantiosa que nueve de las 10 mayores empresas con más alto valor bursátil son tecnológicas, varias con valor de mercado mayor que todo el PIB de México.

Ese lucro se basó en la primera generación de extracción y explotación de nuestros datos.

El siguiente paso fue no sólo vender datos agrupados por segmentos de interés para los anuncios de las empresas, sino vender la predicción y la modificación de las conductas de esos grupos. Para ello, la cantidad y calidad de datos que se puedan agregar y cruzar entre sí –como ubicación geográfica, educación, nivel de ingresos, preferencias de consumo, estado de salud, etcétera, son fundamentales. Por ello han crecido vertiginosamente las industrias de biometría y reconocimiento facial, porque permiten vigilar, interpretar y manipular mejor las emociones, un producto de alto valor para las empresas.

Pese a la alta penetración de esta realidad, la discusión social de los impactos del capitalismo de vigilancia es muy limitada, pero hay un debate importante desde organizaciones y activistas de base (https://tinyurl.com/vwmf4wzb).

Las regulaciones nacionales e internacionales necesarias para controlar y/o prohibir estas actividades, cuestionar los monopolios, etcétera, son ridículamente insuficientes o no existen. Refieren, además, a opciones y derechos individuales, cuando se trata de una explotación global y poblacional a la que necesitamos responder con debates y derechos colectivos. En este difícil contexto, hacer obligatoria la entrega de nuestros datos biométricos –sueño de las gigantes tecnológicas– es una pésima idea.

Investigadora del Grupo ETC

ESPAÑA: profesores de la Complutense llevan más de 300 firmas al Rectorado para que corte relaciones con empresas y academias cercanas a ISRAEL

Publicado en El País https://elpais.com/espana/madrid/2024-05-10/los-maestros-de-la-complutense-llevan-mas-de-300-firmas-al-rectorado-para-...