Mostrando entradas con la etiqueta Microsoft. Mostrar todas las entradas
Mostrando entradas con la etiqueta Microsoft. Mostrar todas las entradas

domingo, 9 de febrero de 2025

IA = brutal consumo de agua dulce y energía + control monopólico de datos

Publicado en La Jornada
https://www.jornada.com.mx/2025/02/08/opinion/015a1eco




La insoportable levedad de la inteligencia artificial

Silvia Ribeiro*

El desarrollo vertiginoso, no regulado y generalmente innecesario de los sistemas de inteligencia artificial ha provocado un aumento brutal en el consumo de agua dulce y energía a nivel global y especialmente en las comunidades donde se instalan grandes centros de datos. Esto trae aparejado un aumento global de los gases de efecto invernadero que aceleran la crisis climática, además de impactos ambientales y en la salud.

No es un desarrollo empujado por la demanda. Tiene poderosos actores que lo impulsan agresivamente: la oligarquía tecnológica que ahora gobierna desde Estados Unidos sin tener ni un voto (https://tinyurl.com/2z3faabt). Es una estrategia deliberada para aumentar la dependencia de los usuarios y el control sobre datos y conductas de éstos.

Tecnologías con inteligencia artificial general existen desde hace décadas y pueden o no ser útiles para automatizar algunas actividades, dependiendo del contexto, necesidades, alternativas, costos e impactos que conllevan. El desarrollo reciente de la llamada inteligencia artificial generativa (IAG) se diferencia en que no sólo recopila y sistematiza datos, también produce nuevo contenido que puede ser textos, imágenes, sonido, incluso nuevas formas biológicas. Ese tipo de inteligencia artificial sustenta aplicaciones como ChatGPT y similares. Requiere procesos amplios de entrenamiento con grandes modelos de lenguaje y conjuntos de datos cada vez más voluminosos, todo lo cual conlleva un aumento exponencial del uso de computadoras, servidores, infraestructura y, por tanto, de energía, agua, recursos y generación de contaminación y basura (https://tinyurl.com/39vzy8mv).

La digitalización en todas las ramas industriales y su uso individual en plataformas y redes sociales genera inmensos volúmenes de datos que para funcionar requiere muchas computadoras interconectadas, o sea centros de datos que puedan almacenar, procesar, extrapolar, reinterpretar. Estos centros son la base física de las nubes de computación. Actualmente, tres de las mayores empresas de la oligarquía tecnológica –Amazon, Microsoft y Google– controlan 66 por ciento de las nubes de computación a nivel global y, junto a Meta (dueña de Facebook), 70 por ciento de los cables submarinos.

Cecilia Rikap, de la University College de Londres, entrevistada en la serie Data Vampires del analista canadiense Paris Marx, explica que las grandes tecnológicas establecieron una estrategia deliberada de centralización de la información digital en sus meganubes. Se presenta ante empresas, instituciones y gobiernos como una solución eficiente para no crear su propia infraestructura digital, con contratos que supuestamente pueden interrumpir. En realidad, debido a las permanentes actualizaciones de programas y aplicaciones de interconexión, se hace muy difícil a los que contratan esos servicios poder retirarse e incluso controlar el uso de su información. Las dueñas de las nubes ganan vendiendo el servicio, mientras aumentan su acceso a más datos y ganan con el negocio de vender o usar la interpretación de éstos para influenciar elecciones de consumo, políticas o cualquier otra (https://tinyurl.com/y5ammzkw).

En 2018 había 430 grandes centros de datos a nivel global. A finales de 2023 eran 992, actualmente superan el millar. Con el uso de inteligencia artificial generativa, se estima que la cantidad de grandes centros de datos se duplicará cada 4 años, la mayoría a hiperescala, categoría para los que tienen más de 5 mil servidores y 10 mil pies cuadrados de superficie. Por ejemplo, Amazon Web Services (AWS) está instalando un centro con más de 50 mil servidores en Minnesota (https://tinyurl.com/yxmy3a7x).

Con el éxito de ventas de ChatGPT, todas las grandes tecnológicas han invertido en desarrollar aplicaciones con IAG. China acaba de anunciar DeepSeek, una aplicación mucho más barata que las de EU (https://tinyurl.com/mup99p2t). También han incorporado sistemas de IAG a los buscadores, teléfonos móviles y diversos dispositivos, a menudo sin dar opción a no usarlos, lo cual multiplica exponencialmente la demanda de agua y energía sin que podamos decidir sobre ello.

Según Sasha Luccioni, científica informática entrevistada en Data Vampires, la diferencia entre hacer un cálculo matemático en una calculadora manual con batería solar o usar ChatGPT, puede multiplicar hasta 50 mil veces el uso energía. Una pregunta y respuesta en ChatGPT o un buscador con inteligencia artificial consume entre 0.5 y un litro de agua (https://tinyurl.com/yxmy3a7x). Además, sujeto a frecuentes errores y sin dar fuentes.

El requerimiento de agua y energía es brutal y ha llevado a conflictos con varias poblaciones donde se instalan los centros de datos (https://tinyurl.com/5n8rtfnd). Singapur, Irlanda y Países Bajos han establecido moratorias a la instalación de dichos centros por el alto uso de recursos.

En América Latina, los principales sitios de instalación de megacentros de datos son Sao Paulo, Brasil, y Querétaro, México. En tercer lugar está Quilicura, en Santiago de Chile, donde ya hay protestas de la población contra estas instalaciones (https://tinyurl.com/5n8rtfnd).

Los impactos locales y globales ambientales, de salud, sociales, políticos de la IAG son graves y sobre todas y todos. Las ganancias son para un pequeño grupo de ultrarricos.

Investigadora del grupo ETC

lunes, 20 de enero de 2025

Permitir que las Big Tech entrenen a las IA en la producción académica solo exacerbará la amenaza que supone para la docencia y la investigación, afirma Martyn Hammersley

Publicado en THE Times Higher Education
https://www.timeshighereducation.com/opinion/publishers-must-not-feed-machine-munching-through-academy 



Permitir que las Big Tech entrenen a las IA en la producción académica solo exacerbará la amenaza que supone para la docencia y la investigación, afirma Martyn Hammersley


26 de septiembre de 2024

Martyn Hammersley


El polémico acuerdo de Informa que permite utilizar artículos y libros académicos para entrenar los sistemas de inteligencia artificial de Microsoft plantea interrogantes sobre las responsabilidades de las editoriales académicas, sus relaciones con los autores y sus derechos legales sobre el contenido de lo que publican. Y es probable que estos interrogantes adquieran mayor relevancia a medida que, desafiando las quejas de los autores, las editoriales sigan adelante con otros acuerdos similares. 


Según Informa, propietaria de Taylor and Francis, Routledge y otros sellos académicos, el acuerdo «ampliará el uso de la IA dentro de nuestro negocio y subraya el valor único de nuestra propiedad intelectual»; se espera que sus «ingresos totales de la asociación de IA» superen los 75 millones de dólares en 2024. Supongo que no debería sorprendernos este deseo de explotar aún más el material académico que controla la empresa. Pero, ¿cómo encaja este acuerdo con la afirmación de Informa de que sus responsabilidades con los autores académicos son fundamentales? 


Los grandes modelos lingüísticos (LLM) ya están haciendo estragos en el mundo académico de varias maneras. La más obvia es que están causando considerables dificultades en la evaluación del trabajo de los estudiantes. Un ensayo elaborado con la ayuda de un LLM dice mucho más de las capacidades del software que de las del estudiante. Mejorar el rendimiento de los LLM empeorará el problema, porque será aún más difícil distinguir los ensayos escritos por bots de los escritos por humanos. ¿Quizás en el futuro los títulos deberían concederse a los desarrolladores de software en lugar de a los estudiantes?


Por supuesto, actualmente se dedican muchos esfuerzos a encontrar modos de evaluación que eviten el problema y a educar a estudiantes y académicos sobre cómo emplear la tecnología de forma responsable en la enseñanza y el aprendizaje. Incluso hay quienes ven con buenos ojos el papel de la IA. Sin embargo, a menudo parece que se trata simplemente de aceptar lo que se considera inevitable; tal optimismo es difícil de cuadrar con lo que está ocurriendo realmente sobre el terreno. 


Cuestiones similares se plantean en el contexto de la investigación, con un debate cada vez más intenso sobre cómo se utilizan -y podrían utilizarse- los LLM para elaborar artículos de revistas y libros. Aquí surgen cuestiones interesantes sobre la relación entre la investigación y la escritura. Algunos científicos sociales sostienen desde hace tiempo que son más o menos equivalentes: que, como dijo la socióloga Laurel Richardson hace muchos años, «la escritura es un método de investigación». Si esto es cierto, quizá la IA pueda tomar el relevo, sobre todo en las humanidades y las ciencias sociales, si éstas son «ciencias parlantes», como afirmó en su día otro sociólogo, Harold Garfinkel, basándose en que sus practicantes se dedican simplemente a «empujar palabras».


Sin embargo, si bien es cierto que en estos campos se publican demasiados trabajos de investigación en los que no se utilizan las palabras, no es así en todos los casos. Y, aunque lo fuera, podríamos preguntarnos si los programas de IA pueden utilizar las palabras con la misma eficacia que los humanos para desarrollar nuevos análisis empíricos y teorías. ¿No se limitan los LLM a reordenar y reformular lo que han masticado? Puede que sean capaces de resumir un artículo con eficacia, pero ¿pueden elaborar una crítica perspicaz del mismo? Esto es, sin duda, esencial si el conocimiento se desarrolla a través de la crítica, como han defendido Popper y otros.


Quizá no debamos descartar tan rápidamente la capacidad de la IA para llegar a ser realmente creativa. ¿Es posible que, al menos en algunos campos, los investigadores ya no tengan nada que hacer? Pero cabe preguntarse: ¿debería una editorial académica acelerar este proceso?


Otra cuestión es que Informa ni siquiera informó a los autores del acuerdo, y mucho menos les consultó al respecto: se informó por primera vez (de forma un tanto críptica) en un comunicado de prensa centrado en el mercado en mayo, y varios periódicos se hicieron eco de la noticia. ¿Qué nos dice esto sobre la actitud de las grandes editoriales? La implicación es que los autores académicos son meros proveedores de contenidos y que las empresas tienen vía libre para hacer lo que quieran con esos contenidos. En otras palabras, se trata simplemente de una relación de mercado que hay que explotar de la manera más eficaz posible. 


Por último, está la cuestión de si Informa tiene derecho legal a utilizar material académico de esta manera. Esto podría ser cierto en el caso de los artículos de revistas, cuyos autores se han visto obligados a ceder sus derechos de autor. El caso de los libros, especialmente los publicados antes del desarrollo de los LLM, está menos claro. Según Informa, dado que incluso los primeros contratos le otorgan derechos de publicación, venta, distribución y licencia del contenido publicado, esto cubre el nuevo uso propuesto. Sin embargo, probablemente sólo los tribunales puedan decidir si esto es así. 


En cuanto a la sugerencia de que los autores recibirán mayores regalías, no está claro cómo ocurriría ni quién saldría ganando. En cualquier caso, la pregunta clave sigue siendo: ¿por qué mejorar el rendimiento de los LLM se considera deseable desde un punto de vista académico?


Tal vez este software pueda servir para ahorrar trabajo, pero ¿merecen la pena los problemas que causa? ¿Y quién afronta esos costes y quién obtiene los beneficios? En el caso de los acuerdos con las grandes tecnológicas para permitir la formación LLM, sugiero que las respuestas a estas preguntas son obvias.


Martyn Hammersley es catedrático emérito de investigación educativa y social en la Open University.


*******************************

Allowing Big Tech to train AIs on academic output will only exacerbate the threat posed to teaching and research, says Martyn Hammersley

September 26, 2024

Martyn Hammersley


Informa’s controversial deal allowing academic articles and books to be used to train Microsoft’s AI systems raises questions about academic publishers' responsibilities, relationships with authors and legal rights regarding the content of what they publish. And those questions are only likely to become more salient as, in defiance of complaints from authors, publishers press ahead with further similar deals.  

According to Informa, which owns Taylor and Francis, Routledge and other academic imprints, the deal “will extend the use of AI within our business and underlines the unique value of our Intellectual Property”; its “total AI partnership revenues” are expected to be “over $75m in 2024”. We should not be surprised by this desire to further exploit the academic material the company controls, I suppose. But how does this deal square with Informa’s claim that its responsibilities to academic authors are central?  

Large language models (LLMs) are already munching through the academy in various ways. Most obviously, they are causing considerable difficulties in the assessment of student work. An essay produced with the help of an LLM says much more about the software’s capabilities than about those of the student. Improving the performance of LLMs will make that problem worse because it will be even harder to distinguish bot-written essays from human-written ones. Perhaps degrees should be awarded to the software developers rather than to the students in future?  

Of course, much effort is currently being devoted to finding modes of assessment that avoid the problem and to educating students and academics in how to employ the technology responsibly in teaching and learning. There are even those who view the role of AI positively. However, this often seems to be a matter of simply accepting what is regarded as inevitable; such optimism is hard to square with what is actually happening at ground level.   

Similar issues arise in the context of research, with increasing discussion of how LLMs are being – and could be – used to produce journal articles and books. Here, interesting issues arise about the relationship between enquiry and writing. Some social scientists have long argued that these are more or less equivalent: that, as sociologist Laurel Richardson put it many years ago, “writing is a method of inquiry”. If that is true, perhaps AI can simply take over, especially in the humanities and social sciences – if these are “talking sciences”, as another sociologist, Harold Garfinkel, once claimed, on the grounds that their practitioners are engaged in simply “shoving words around”.  

But while shoving words around may be a fair description of too much published research in those fields, it is far from universally true. And, even if it were, we might ask whether AI programs can shove words around as effectively as humans, to develop new empirical analyses and theories. Do LLMs not merely reorder and reformulate what they have munched their way through? They may be able to summarise an article effectively, but can they produce an insightful critique of it? This is surely essential if knowledge develops through criticism, as Popper and others have argued.  

Perhaps we ought not to dismiss so quickly the ability of AI ever to become genuinely creative. Might the writing really be on the wall for researchers, in some fields at least? But it must be asked: should an academic publisher be accelerating this process?

Another issue concerns the fact that Informa did not even tell authors about the deal, never mind consult them on it: it was first reported (somewhat cryptically) in a market-focused press release in May, and was picked up by several newspapers. What does this tell us about the attitudes of large publishers? The implication is that academic authors are merely content providers and that companies have a free hand to do whatever they wish with that content. In other words, what is involved is simply a market relationship that is to be exploited as effectively as possible.  

Finally, there is the question of whether Informa is legally entitled to use academic material in this way. That could be true as regards journal articles, where authors have been forced to sign away their copyright. The case of books, particularly those published before the development of LLMs, is less clear. According to Informa, since even early contracts give it rights to publish, sell, distribute and license the published content, this covers the proposed new use. However, whether that is the case could probably only be decided in court. 

As for the suggestion that authors will receive enhanced royalties, it is not clear how this would occur or who would gain. Either way, the key question remains: why would improving the performance of LLMs be regarded as desirable from an academic point of view?

This software can perhaps serve as a labour-saving tool, but are the problems it causes worth its benefits? And who faces those costs, and who gets the benefits? In the case of deals with big tech to allow LLM training, I suggest that the answers to those questions are obvious.

Martyn Hammersley is emeritus professor of educational and social research at the Open University

**********

viernes, 29 de noviembre de 2024

Cómo Google pasó 15 años creando una cultura de ocultamiento

Publicado en The New York Times
https://www.nytimes.com/es/2024/11/21/espanol/negocios/google-mensajes-empleados-secretos.html


Cómo Google pasó 15 años creando una cultura de ocultamiento

Para evitar demandas antimonopolio, Google ordenó sistemáticamente a sus empleados que destruyeran los mensajes, evitaran ciertas palabras y copiaran a los abogados con la mayor frecuencia posible.

 

Por David Streitfeld

David Streitfeld ha escrito sobre Google desde que era una empresa emergente.

21 de noviembre de 2024

 

Read in English



A fines de 2008, mientras Google se enfrentaba al escrutinio antimonopolio por un acuerdo publicitario con su rival Yahoo y lidiaba con demandas por patentes, marcas registradas y derechos de autor, sus ejecutivos enviaron un memorando confidencial.

“Creemos que la información es buena”, les dijeron los ejecutivos a los empleados. Sin embargo, también afirmaron que los reguladores gubernamentales o los competidores podrían aprovecharse de las palabras que los trabajadores de Google se escribieran unos a otros de manera casual e irreflexiva.

Para minimizar las probabilidades de que un juicio pudiera sacar a la luz los comentarios que podrían ser incriminatorios, Google dijo que los empleados debían abstenerse de especulaciones y sarcasmos y “pensárselo dos veces” antes de escribirse unos a otros sobre “temas candentes”. “No hagas comentarios antes de conocer todos los hechos”, se les indicó.

También se modificó la tecnología. La configuración de la herramienta de mensajería instantánea de la empresa se cambió a “extraoficial”. Las frases incautas se borrarían al día siguiente.

El memorando se convirtió en la primera acción de una campaña de 15 años que fue emprendida por Google para convertir a la acción de borrar en la norma de sus comunicaciones internas. Mientras el gigante de internet almacenaba la información del mundo, creaba una cultura laboral que intentaba minimizar la suya propia. Entre las herramientas utilizadas destacan el uso del privilegio legal como un escudo y la imposición de restricciones a su propia tecnología, todo eso mientras advertía de manera continua que los comentarios irreflexivos podrían hundir incluso a la corporación más exitosa.

La manera en que Google desarrolló esta cultura de desconfianza se reveló a partir de cientos de documentos y pruebas, así como de testimonios de testigos, en tres juicios antimonopolio celebrados el año pasado contra la empresa de Silicon Valley. Los demandantes —Epic Games en un caso, y el Departamento de Justicia en los otros dos— intentaban demostrar un comportamiento monopolístico, lo que les obligó a analizar correos electrónicos, memorandos y mensajes instantáneos de cientos de ingenieros y ejecutivos de Google.

Las pruebas y testimonios demostraron que la empresa tomó numerosas medidas para mantener a raya las comunicaciones internas. Animaba a los empleados a poner “privilegio abogado-cliente” en los documentos y siempre añadir a un abogado de Google a la lista de destinatarios, aunque no hubiera temas legales de por medio y el abogado nunca respondiera.

Las empresas que se anticipan a un litigio están obligadas a conservar los documentos. Pero Google eximió a la mensajería instantánea de las retenciones legales automáticas. Si los trabajadores se veían implicados en un proceso legal, dependía de ellos activar su historial de chat. Por lo visto en los juicios, pocos lo hicieron.

Google no es ni mucho menos la única empresa que intenta mantener las nuevas formas de comunicación afuera de los juzgados. A medida que los mensajes instantáneos y de texto se han convertido en populares herramientas de oficina, las empresas y los reguladores se han enfrentado cada vez más sobre cómo pueden utilizarse en los tribunales.

Hace una generación, una conversación entre amigos o una llamada telefónica podía ser incriminatoria, pero las palabras se disolvían en el aire. Alguien podría recordarlas, pero siempre podían negarse. Tal vez los oyentes escucharon mal o entendieron mal.

A las empresas les gustaría que los mensajes instantáneos fueran tan efímeros como una conversación en la vida real. Un comentario hecho por mensaje de texto a un subordinado sobre las implicaciones de una fusión no es más que cháchara, argumentan. Pero los reguladores y los litigantes los consideran un juego limpio.

En agosto, la Comisión Federal de Comercio (FTC, por su sigla en inglés), que ha interpuesto una demanda para detener una fusión de supermercados de 25.000 millones de dólares entre Albertsons y Kroger, dijo que varios ejecutivos de Albertsons habían demostrado “una práctica generalizada” de borrar mensajes de texto relacionados con la empresa, incumpliendo la obligación legal de conservarlos.

Algunos de estos mensajes, según la FTC, sugerían que al menos un ejecutivo pensaba que los precios podrían aumentar como resultado de la fusión. El juez dijo que Albertsons “no tomó medidas razonables” para conservar los mensajes, pero no sancionó a la cadena. Albertsons declinó hacer comentarios.

En abril, la FTC dijo en una presentación legal como parte de su caso antimonopolio contra Amazon que los ejecutivos de la compañía habían utilizado Signal, la aplicación de mensajería que puede configurarse para que desaparezcan los mensajes, con el fin de discutir temas relacionados con la competencia, incluso después de que se les exigiera conservar todas las comunicaciones en el caso. Amazon dijo que las afirmaciones de que había destruido información eran “infundadas e irresponsables”.
Sin embargo, Google ha sido la empresa que ha enfrentado las mayores críticas por sus acciones porque los jueces de los tres casos antimonopolio han reprendido a la compañía por sus prácticas de comunicación.

El juez James Donato del Tribunal para el Distrito Norte de California, quien presidió el caso Epic, dijo que había “una arraigada cultura sistémica de supresión de pruebas relevantes dentro de Google” y que el comportamiento de la empresa era “un ataque frontal a la administración imparcial de justicia”. Añadió que, tras el juicio, iba a “llegar al fondo” de quién era el responsable en Google de permitir este comportamiento. El juez Donato declinó hacer comentarios.

La jueza Leonie Brinkema, del Tribunal para el Distrito Este de Virginia, quien supervisa el caso antimonopolio de Google relacionado con la tecnología publicitaria, dijo en una audiencia celebrada en agosto que las políticas de conservación de documentos de la empresa “no eran la manera en que debería funcionar una entidad corporativa responsable”. Y añadió: “Es probable que se hayan destruido muchísimas pruebas”.

El Departamento de Justicia ha pedido a la jueza Brinkema que emita sanciones, lo que supondría una presunción de que el material desaparecido era desfavorable para Google en los temas de los casos llevados a juicio, incluido el poder de monopolio y si su conducta fue anticompetitiva. Los alegatos finales del caso están previstos para el lunes.

En un comunicado, Google dijo tomarse “muy en serio nuestra obligación de conservar y presentar los documentos pertinentes. Durante años hemos respondido a consultas y litigios, y educamos a nuestros empleados sobre el privilegio legal”. La empresa dijo que había proporcionado “millones de documentos” solo en los casos del Departamento de Justicia.

Desde el punto de vista de Google, era la Marie Kondo de las empresas, limitándose a poner en orden sus registros y archivos. Pero lo hizo de manera tan exhaustiva y obsesiva que creó la ilusión de engaño que tanto intentaba disipar, dijo Agnieszka McPeak, profesora de la Facultad de Derecho de la Universidad Gonzaga, quien ha escrito sobre la destrucción de pruebas.

“Google tenía una política corporativa vertical de ‘No guardes nada que pueda hacernos quedar mal’”, dijo. “Y eso hace que Google quede mal. Si no tienen nada que ocultar, piensa la gente, ¿por qué actúan como si lo tuvieran?”.

La larga sombra de Microsoft

Google se fundó en septiembre de 1998, pocos meses después de que la empresa tecnológica más dominante de la época —Microsoft— fuera demandada por el Departamento de Justicia por violación de las leyes antimonopolio. Para demostrar que Microsoft monopolizaba de manera ilegal el mercado de los navegadores web, el Departamento de Justicia no tuvo que ir muy lejos para encontrar memorandos condenatorios.

“Tenemos que continuar nuestra yihad el año que viene”, escribió un vicepresidente de la empresa al presidente ejecutivo de Microsoft, Bill Gates, en un memorando. Otro ejecutivo, tratando de persuadir a Apple para que eliminara una función, dijo: “Queremos que acuchilles al bebé”.

Microsoft perdió el caso, aunque el veredicto fue anulado parcialmente en una apelación. Sin embargo, fue una experiencia lo bastante cercana a la muerte como para que la siguiente generación de empresas tecnológicas, incluida Google, desconfiaran tanto de los documentos como de los comentarios.

El problema fue que la tecnología facilitó enormemente la producción y conservación de ambos. Google producía 13 veces más correos electrónicos que el promedio de empresas por empleado antes de cumplir una década, según declaró Kent Walker, el principal abogado de Google, en el juicio de Epic. Dijo que Google se sentía desbordada, y la empresa tenía claro que las cosas solo empeorarían si no se hacían cambios.

El memorando de 2008 que decía que los mensajes de chat se purgarían automáticamente estaba firmado por Walker y Bill Coughran, un ejecutivo de ingeniería. Señalaban que Google tenía “una cultura de correo electrónico y mensajería instantánea”. Sus herramientas de mensajería instantánea, primero llamadas Talk, más tarde Hangouts y después Chat, fueron adoptadas rápidamente por los empleados.

Chat era el lugar en el que los ingenieros podían ser un poco espontáneos, de manera segura. Como escribió un empleado en una conversación que se divulgó como prueba en un juzgado, la necesidad de ser cauteloso “hace que la comunicación escrita sea menos interesante, a veces incluso menos útil. Pero por eso tenemos chats extraoficiales”.

Google, como muchas otras empresas, tiene que hacer frente a tantos pleitos que algunos empleados están vinculados a varios procesos al mismo tiempo. Algunos pueden involucrados en litigios durante toda su carrera.

Lauren Moskowitz, abogada de Epic, preguntó a Walker durante su testimonio en el caso cómo funcionaba realmente poner a los empleados al mando del proceso.

“Usted esperaba que sus empleados, cientos, miles de empleados, dejaran de hacer lo que estaban haciendo por cada mensaje instantáneo que enviaban o recibían cada día, y analizaran una lista de temas con algún tipo de retención legal, para decidir si debían tomar una medida para cambiar una configuración predeterminada en su chat antes de llevar a cabo el resto de sus actividades”, dijo Moskowitz.

Walker respondió que la política había sido “razonable en su momento”.

A medida que Google crecía, su vocabulario se reducía. En un memorando de 2011 titulado “Conceptos básicos antimonopolio para el equipo de búsqueda”, la empresa recomendaba evitar “metáforas que impliquen guerras o deportes, ganar o perder”, y rechazar las referencias a “mercados”, “cuota de mercado” o “dominio”.

En un tutorial posterior para los nuevos empleados, Google dijo que incluso una frase tan benigna como “poner productos en manos de nuevos clientes” debería evitarse porque “puede interpretarse como expresión de la intención de negar a los consumidores la posibilidad de elegir”.

Si utilizar las palabras adecuadas y borrar los mensajes no mantenía a Google afuera del juzgado, concluyó la empresa, invocar a los abogados sí lo haría.

En el caso Epic, el demandante alegó que las numerosas evocaciones de Google del privilegio abogado-cliente eran meramente para aparentar, para mantener los documentos fuera del juzgado. Sundar Pichai, director ejecutivo de Google, escribió en un correo electrónico de 2018 a otro ejecutivo: “Privilegio del cliente abogado, confidencial, Kent, por favor, un consejo”, refiriéndose a Walker. El correo electrónico, sobre un asunto no legal, fue retenido por Google y despojado de su privilegio solo después de que Epic lo exigió en corte.

Se pidió a Walker que explicara al juez el comportamiento de Google. Negó que existiera “una cultura de ocultamiento”, pero dijo que uno de los problemas era que los empleados no estaban seguros del significado de ciertas palabras.

“Piensan que la palabra ‘privilegio’ es similar a ‘confidencial’”, dijo.
En el juicio de Epic salió a la luz un mensaje en el que un abogado de Google calificaba de “falso privilegio” la práctica de copiar a los abogados en los documentos y parecía bastante divertido por eso. Walker dijo sentirse “decepcionado” y “sorprendido” al oír ese término.

El jurado del caso falló a favor de Epic en los 11 cargos en diciembre.

Google declinó que Pichai y Walker hicieran comentarios. El mes pasado, tres grupos de defensa, liderados por el American Economic Liberties Project, pidieron que Walker fuera investigado por el Colegio de Abogados del Estado de California por entrenar a Google para “participar en la destrucción generalizada e ilegal” de documentos relevantes para los juicios federales.

‘Lo que pasa en Las Vegas’

En septiembre de 2023, cuando Google iba a juicio en un caso antimonopolio sobre su dominio en las búsquedas de internet, el Departamento de Justicia afirmó que la empresa había retenido decenas de miles de documentos, alegando que eran confidenciales. Cuando los documentos fueron revisados por el tribunal, se consideró que, después de todo, no eran confidenciales.

El juez Amit P. Mehta, del Tribunal de Distrito de Columbia de Estados Unidos, escribió: “El tribunal se siente sorprendido por los extremos a los que Google llega para evitar crear un rastro documental para los reguladores y los litigantes”. Señaló que Google había aprendido claramente la lección de Microsoft: había formado eficazmente a sus empleados para que no crearan “malas” pruebas.

Mehta dijo que, en última instancia, no importaba: en agosto, declaró a Google culpable de monopolio. Sin embargo, dijo que no creía que la empresa se estuviera comportando bien.

“Cualquier empresa que haga recaer en sus empleados la responsabilidad de identificar y conservar las pruebas pertinentes lo hace por su cuenta y riesgo”, escribió, añadiendo que Google podría no tener tanta suerte para evitar sanciones en el próximo caso.

El siguiente caso llegó en septiembre, cuando el Departamento de Justicia argumentó en la sala del juzgado de Brinkema, en Virginia, que Google había creado un monopolio en la muy rentable tecnología de anuncios en línea.

Las pruebas de los casos demostraron que los empleados de Google habían aprendido a ser un poco paranoicos por el bien de la empresa y de sus propias carreras. Habla en la oscuridad, insistían una y otra vez, en lugar de hacerlo en la luz.

“¿Cómo apagamos el historial?”, escribió Adam Juda, vicepresidente de gestión de productos, en un chat de 2020. “Yo no hago historial 🙂”.

A veces, los ejecutivos estaban tan preocupados por dejar un registro que por defecto optaban por una tecnología obsoleta.

En 2017, Robert Kyncl, entonces director comercial de YouTube, filial de Google, preguntó a su jefa, Susan Wojcicki, si tenía un fax en casa. Kyncl explicó que tenía un “documento privilegiado” y que “solo no quería enviar correos electrónicos”. Wojcicki, quien falleció en agosto, no tenía fax.

Si los empleados querían llevar un registro electrónico, eran reprendidos. En un chat de grupo de 2021, un empleado preguntó: “¿Puedo guardar el historial aquí? Necesito guardar algunos datos para la memoria”.

No está bien, dijo Danielle Romain, vicepresidenta de Trust, un equipo de Google que busca soluciones que mejoren la privacidad y la confianza de los usuarios. “La discusión que inició este hilo se adentra en territorio legal y potencialmente competitivo, que me gustaría ser consciente de tener bajo privilegio”, dijo. “Me gustaría ceñirme a la opción por defecto de historial apagado”.

Julia Tarver Wood, abogada del Departamento de Justicia, dijo en una audiencia celebrada en agosto en el caso de la tecnología publicitaria que los empleados de Google “se referían a estos chats extraoficiales como ‘Las Vegas’. Lo que pasa en Las Vegas se queda en Las Vegas”.

Google dijo que hizo todo lo posible por facilitar al gobierno los documentos que pudo y que, en cualquier caso, el Departamento de Justicia no demostró que las conversaciones eliminadas fueran cruciales para su caso. El Departamento de Justicia dijo que no podía hacerlo porque el material había sido borrado.

Los reguladores han subrayado recientemente que no hay “Vegas” en los chats. Este año, la FTC y la división antimonopolio del Departamento de Justicia lo dejaron “meridianamente claro” en un memorando de aplicación: las comunicaciones a través de aplicaciones de mensajería son documentos y deben conservarse si hay amenaza de litigio.

El año pasado, Google cambió sus procedimientos. Por defecto, pasó a guardarlo todo, incluidos los chats. Los empleados en espera de juicio ya no pueden desactivar el historial.

Sin embargo, los viejos hábitos son difíciles de cambiar. En un chat, los empleados respondieron a la noticia formando un grupo para comunicarse en secreto por WhatsApp, la aplicación de mensajería segura de Meta

El cumplimiento de los derechos de autor y la concienciación sobre la IA, «más importantes que nunca»

Publicado en Research information https://www.researchinformation.info/news/awareness-of-copyright-compliance-and-ai-tools-more-important-th...