viernes, 7 de octubre de 2022

LinkedIn hizo experimentos con millones de sus usuarios, sin avisarles

Publicado en The New York Times en español
https://www.nytimes.com/es/2022/09/28/espanol/linkedin-experimento-social.html?campaign_id=42&emc=edit_bn_20220930&instance_id=73290&nl=el-times&regi_id=84791720&segment_id=108523&te=1&user_id=f8de94556199c222487f9ed6b135dc23



LinkedIn hizo experimentos con millones de sus usuarios, sin avisarles

Un estudio que analizó esas pruebas descubrió que las conexiones sociales relativamente débiles eran más útiles para encontrar trabajo que los vínculos sociales más fuertes.

Por Natasha Singer

Natasha Singer, reportera de negocios de The New York Times, imparte un curso de periodismo de responsabilidad tecnológica en el programa de verano del Times para estudiantes de secundaria.

28 de septiembre de 2022

LinkedIn hizo experimentos con más de 20 millones de usuarios durante cinco años que, aunque se efectuaron con la intención de mejorar cómo funciona la plataforma para los miembros, podrían haber afectado los ingresos de algunas personas, según un nuevo estudio.

En experimentos realizados en todo el mundo de 2015 a 2019, LinkedIn varió al azar la proporción de contactos débiles y fuertes que sugirió su algoritmo “Gente que podrías conocer” (el sistema automatizado de la compañía para recomendar conexiones nuevas a sus usuarios). Se detallaron las pruebas en un estudio publicado este mes en la revista Science cuyos coautores son investigadores de LinkedIn, el Instituto Tecnológico de Massachusetts (MIT, por su sigla en inglés), la Universidad de Stanford y la Facultad de Negocios de la Universidad de Harvard.

Los experimentos algorítmicos de LinkedIn podrían sorprender a millones de personas porque la compañía no le notificó a los usuarios sobre las pruebas.

Las grandes empresas tecnológicas como LinkedIn, la red de contactos profesionales más grande del mundo, hacen experimentos a gran escala de manera rutinaria en los que prueban versiones de las funciones de la aplicación, de los diseños web y de los algoritmos en distintas personas. La práctica de larga data, llamada test A/B, tiene el objetivo de mejorar las experiencias del consumidor y mantenerlos involucrados, lo que ayuda a las compañías a hacer dinero a través de cuotas de membresías prémium o publicidad. A menudo, los usuarios no tienen idea de que las compañías hacen pruebas con ellos. (The New York Times usa esas pruebas para evaluar la redacción de los titulares y tomar decisiones sobre los productos y artículos que la empresa lanza al mercado).

No obstante, los cambios hechos por LinkedIn indican cómo esas modificaciones a algoritmos muy usados pueden convertirse en experimentos de ingeniería social con consecuencias que pueden alterar la vida de muchas personas. Expertos que estudian los efectos de la computación en la sociedad afirmaron que realizar experimentos prolongados y a larga escala en las personas que podrían afectar sus perspectivas laborales, de maneras invisibles para ellas, generaba cuestionamientos sobre la transparencia de la industria y la supervisión de la investigación.

Michael Zimmer, profesor asociado de Informática y director del Centro de Datos, Ética y Sociedad en la Universidad Marquette, comentó: “Los hallazgos indican que algunos usuarios tuvieron mejor acceso a oportunidades de empleo o una diferencia significativa en el acceso a oportunidades de trabajo. Este es el tipo de consecuencias a largo plazo que se necesita contemplar cuando pensamos en la ética de participar en esta clase de investigación de inteligencia de datos”.

El estudio en Science examinó una teoría influyente en sociología llamada “la fortaleza de los lazos débiles”, la cual indica que es más probable que las personas obtengan empleo y acceso a otras oportunidades a través de conocidos no tan cercanos que a través de amigos íntimos.

Los investigadores analizaron cómo los cambios al algoritmo de LinkedIn habían afectado la movilidad laboral de los usuarios. Descubrieron que los lazos sociales relativamente débiles en LinkedIn probaron tener el doble de efectividad para asegurar un empleo que los lazos sociales más fuertes.

En un comunicado, LinkedIn dio a conocer que durante el estudio había “actuado de conformidad” con las condiciones de uso y la política de privacidad de la compañía, así como con la configuración del usuario. La política de privacidad señala que LinkedIn usa los datos personales de los miembros con fines de investigación. El comunicado agregó que la empresa utilizó las técnicas de sociología más recientes y “no invasivas” para responder preguntas de investigación importantes “sin ninguna experimentación con los miembros”.

LinkedIn, que es propiedad de Microsoft, no respondió de manera directa a una pregunta sobre cómo había calculado la compañía las consecuencias potenciales a largo plazo de sus experimentos en el empleo y el estatus económico de los usuarios. Sin embargo, la empresa aseguró que la investigación no había dado una ventaja desproporcionada a algunos usuarios.

Karthik Rajkumar, un científico de investigación aplicada en LinkedIn que fue uno de los coautores del estudio, explicó que la meta de la investigación era “ayudar a las personas a escala. No se puso a nadie en desventaja para encontrar empleo”.

Sinan Aral, un profesor de administración y ciencia de datos en el MIT y autor principal del estudio, comentó que los experimentos de LinkedIn fueron una iniciativa para garantizar que los usuarios tuvieran igualdad de acceso a las oportunidades de empleo.

Aral precisó: “Hacer un experimento con 20 millones de personas y después implementar un algoritmo más adecuado para mejorar las perspectivas de empleo de todos como resultado de los conocimientos que adquiriste con eso es lo que ellos intentan hacer, no otorgar movilidad social a algunas personas y a otras no”. (Aral ha realizado análisis de datos para The New York Times y recibió una beca de investigación de Microsoft en 2010).

Los experimentos que involucran a los usuarios hechos por grandes empresas de internet tienen un historial irregular. Hace ocho años, se publicó un estudio de Facebook que describía cómo la red social había manipulado en secreto qué publicaciones aparecían en la sección de noticias de los usuarios para analizar la propagación de las emociones negativas y positivas en su plataforma. El experimento de una semana, llevado a cabo con 689.003 usuarios, de inmediato generó reacciones negativas.

El estudio de Facebook, cuyos autores incluían a un investigador de la empresa y a un profesor de Cornell, sostenía que las personas habían consentido implícitamente el experimento de manipulación de emociones cuando se habían registrado en Facebook. “Todos los usuarios están de acuerdo antes de crear una cuenta en Facebook”, decía el estudio, “lo que constituye un consentimiento informado para esta investigación”.


No hay comentarios:

Publicar un comentario

Una herramienta de Google permite detectar fácilmente la escritura generada por IA

Publicado en blog  Universo abierto https://universoabierto.org/2024/10/25/una-herramienta-de-google-permite-detectar-facilmente-la-escritur...