Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas
Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas

miércoles, 26 de julio de 2023

El 95,7% de las principales revistas prohíben la inclusión de la Inteligencia Artificial Generativa como autor

Publicado en blog Universo abierto
https://universoabierto.org/2023/07/26/el-957-de-las-principales-revistas-prohiben-la-inclusion-de-la-inteligencia-artificial-generativa-como-autor/



El 95,7% de las principales revistas prohíben la inclusión de la Inteligencia Artificial Generativa como autor


Ganjavi, Conner, Michael B. Eppler, Asli Pekcan, Brett Biedermann, Andre Abreu, Gary S. Collins, Inderbir S. Gill, y Giovanni E. Cacciamani. «Bibliometric Analysis of Publisher and Journal Instructions to Authors on Generative-AI in Academic and Scientific Publishing». arXiv, 21 de julio de 2023. https://doi.org/10.48550/arXiv.2307.11918.

El objetivo de esta investigación consiste en analizar las normas y orientaciones proporcionadas a los autores acerca del uso de herramientas basadas en Generative-AI (IAG), Generative Pretrained Models (GPTs) y Large Language Models (LLMs) en las 100 principales editoriales y revistas académicas de ciencias. Para llevar a cabo este estudio, se examinaron los sitios web de estas editoriales y revistas en el período comprendido entre el 19 y el 20 de mayo de 2023.

Entre las 100 editoriales más importantes, el 17% ofrecía orientación sobre el uso de IAG, de las cuales 12 (70,6%) se encontraban dentro de las 25 primeras. Además, el 95,7% de las revistas prohiben la inclusión de IAG como autor. Cuatro revistas (5,7%) tienen una prohibición explícita del uso de IAG para generar un manuscrito, mientras que 3 (17,6%) editores y 15 (21,4%) revistas indicaron que sus orientaciones solo se aplican al proceso de redacción.

En cuanto a la divulgación del uso de IAG, el 42,8% de las editoriales y el 44,3% de las revistas incluyeron criterios específicos. Hubo diversidad en la orientación sobre dónde incluir el uso de IAG, incluyendo los métodos, agradecimientos, carta de presentación o una nueva sección. También se observó variabilidad en la accesibilidad de las orientaciones sobre IAG y en la vinculación de estas instrucciones entre las revistas y editoriales y sus autores.

Además, algunas de las principales editoriales y revistas carecen de orientaciones sobre el uso de IAG por parte de los autores. Entre las que sí proporcionan orientación, existe una heterogeneidad significativa en los usos permitidos de la IAG y en la forma de revelar su utilización, persistiendo esta heterogeneidad incluso entre editoriales y revistas afiliadas en algunos casos.

La falta de normalización representa una problema para los autores y podría limitar la eficacia de estas directrices. Por lo tanto, se requieren directrices normalizadas para salvaguardar la integridad de la producción científica en un contexto donde la popularidad de la IAG sigue en aumento.


lunes, 3 de julio de 2023

CHINA vs USA en UNESCO por la IA

Publicado en Russia Today - RT
https://actualidad-rt.com/actualidad/471963-regreso-eeuu-unesco-crear-nuevo-frente-rivalidad-pekin?s=08


Por qué el regreso de EE.UU. a la Unesco puede crear un nuevo frente de rivalidad entre Washington y Pekín

Publicado: 2 jul 2023

"La Unesco desempeña un papel crítico en dirigir diálogos globales, publicar documentos conceptuales y prestar asesoramiento técnico a Gobiernos, y se espera que dé forma a la discusión internacional sobre la IA", señala South China Morning Post.

El regreso de EE.UU. a la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) puede crear un nuevo frente de rivalidad entre Washington y Pekín por el importante papel que se espera del organismo a la hora de establecer las reglas de uso de la inteligencia artificial, reporta este domingo South China Morning Post citando a varios analistas.

El viernes, la junta directiva de la Unesco votó a favor de la propuesta de EE.UU. de reincorporarse al organismo, casi seis años después de que la Administración Trump retirara al país de la entidad. 132 Estados apoyaron el regreso, mientras que China, Rusia, Corea del Norte, Palestina, Bielorrusia, Eritrea, Indonesia, Irán, Nicaragua y Siria votaron en contra.

El artículo de South China Morning Post destaca que "la Unesco desempeña un papel crítico en dirigir diálogos globales, publicar documentos conceptuales y prestar asesoramiento técnico a Gobiernos, y se espera que dé forma a la discusión internacional sobre la IA".

Una plataforma para promover sus intereses

Por su parte, Bart Édes, miembro distinguido de la Fundación de Asia Pacífico de Canadá, indicó que "Washington está reclamando un asiento en la mesa de la Unesco mientras su papel [de la Unesco] en hacer recomendaciones sobre la IA es especialmente preocupante para EE.UU.". En su opinión, la participación en el trabajo del organismo les da a China y EE.UU. una oportunidad para promover sus valores e intereses.

Michael Frank, miembro sénior del Centro Wadhwani para IA y Tecnologías Avanzadas en el 'think tank' Centro para Estudios Estratégicos e Internacionales (Washington), expresó que EE.UU. está interesado en bloquear los esfuerzos de China para crear estándares de inteligencia artificial y restringir la capacidad de Pekín en el ámbito de la IA. 

Sin embargo, pone en duda que la Unesco desempeñe un importante papel en el proceso para "establecer los más importantes aspectos internacionales de la IA".

Tras la votación, Yang Jin, representante permanente de China ante la Unesco, llamó a EE.UU. a promover la solidaridad y la cooperación dentro del organismo en lugar de crear confrontación y división después de su reincorporación. "El objetivo de reincorporarse no debería ser el de provocar una confrontación o poner resistencia a la influencia de un país", advirtió Yang.

jueves, 15 de junio de 2023

UNIÓN EUROPEA emite primera ley integral sobre IA en el mundo

 [ información cortesía de F. Turnbull ]


Enmiendas a la propuesta de Ley de Inteligencia Artificial (IA) presentada por la Comisión Europea


Por 499 votos a favor, 28 en contra y 93 abstenciones, el Parlamento Europeo adoptó el jueves el conjunto de Enmiendas en abril de 2021, la primera ley integral sobre IA del mundo.

Tras este paso procedimental, seguirán las negociaciones sobre la forma final de la Ley de IA con los Estados miembros representados en el Consejo de la UE, con el objetivo de alcanzar un acuerdo a finales de este año.

De acuerdo con el comunicado de prensa del Parlamento, la Ley de AI fija obligaciones específicas para los proveedores y los que despliegan herramientas basadas en IA en función de su nivel de riesgo. Se contemplan cuatro niveles:

1.       Riesgo mínimo: Libre utilización de aplicaciones tales como videojuegos basados en la IA o filtros de correo no deseado. La gran mayoría de los sistemas de IA pertenece a esta categoría, en la que las nuevas normas no serán de aplicación porque solo representan un riesgo mínimo para los derechos o la seguridad de los ciudadanos, o ningún riesgo en absoluto.

2.       Riesgo reducido: Los sistemas de IA como los robots conversacionales están sujetos a unas obligaciones mínimas de transparencia, para que quienes interactúen con los contenidos tomen decisiones con conocimiento de causa. El usuario puede entonces decidir si quiere continuar o dejar de utilizar la aplicación.

3.       Riesgo alto:

1.       Las infraestructuras críticas (por ejemplo, el transporte) que puedan poner en peligro la vida y la salud de los ciudadanos.

2.       La educación y formación profesionales que puedan determinar el acceso a la educación y la trayectoria profesional de una persona (por ejemplo, la calificación de exámenes).

3.       Los componentes de seguridad de los productos (por ejemplo, la aplicación de la IA en la cirugía asistida por robots).

4.       El empleo, la gestión de los trabajadores y el acceso al autoempleo (por ejemplo, el software para la clasificación de los currículos en los procesos de selección de personal).

5.       Los servicios públicos y privados esenciales (por ejemplo, las calificaciones crediticias que denieguen a los ciudadanos la oportunidad de obtener un préstamo).

6.       Los asuntos relacionados con la aplicación del Derecho que puedan interferir en los derechos humanos fundamentales (por ejemplo, la evaluación de la fiabilidad de las pruebas).

7.       La gestión de la migración, el asilo y el control fronterizo (por ejemplo, la verificación de la autenticidad de los documentos de viaje).

8.       La administración de justicia y los procesos democráticos (por ejemplo, la aplicación del Derecho a un conjunto concreto de hechos).

9.       Riesgo inaceptable: se prohibirá todo lo que se considere una amenaza clara para los ciudadanos de la UE: desde la clasificación social por parte de los gobiernos a los juguetes que utilicen un asistente de voz que incentive comportamientos peligrosos en los niños. Los eurodiputados añadieron a esta categoría prohibiciones que se refieren a los usos intrusivos y discriminatorios de la IA, como por ejemplo:

10.         los sistemas de identificación biométrica remota, en tiempo real, en espacios públicos;

11.         los sistemas de identificación biométrica remota, a posteriori, con la única excepción de usos policiales en investigaciones por delitos graves y con autorización judicial;

12.         los sistemas de categorización biométrica que utilicen ciertas características identitarias (por ejemplo el género, la raza, la etnia, el estatus de ciudadanía, la religión o la orientación política);

13.         los sistemas policiales predictivos (basados en la elaboración de perfiles, la ubicación o el historial delictivo);

14.         los sistemas de reconocimiento de emociones por las fuerzas de seguridad, en la gestión de fronteras, los lugares de trabajo o las instituciones de enseñanza; y

15.         el rastreo indiscriminado de imágenes faciales sacadas de Internet o de circuitos cerrados de televisión para crear bases de datos de reconocimiento facial (que violan los derechos humanos y el derecho a la intimidad).

 

Los Eurodiputados añadieron también a la lista de riesgos los sistemas de IA utilizados para influir en los votantes y el resultado de las elecciones y en los sistemas de recomendación utilizados por las plataformas de redes sociales que cuenten con más de 45 millones de usuarios.

Los sistemas de IA generativa basados en modelos fundacionales, como ChatGPT, tendrán que cumplir unos requisitos adicionales de transparencia y estar diseñados de forma que no puedan generar contenido ilegal.

Para impulsar la innovación en IA y apoyar a las PYMEs del sector, se contemplan como excepciones los proyectos de investigación y los componentes de IA suministrados con licencias de código abierto. La nueva Ley promueve los llamados “espacios controlados de pruebas”, o entornos reales en los que las empresas pueden probar la inteligencia artificial bajo la supervisión de las autoridades públicas antes de salir al mercado.

Por último, la Ley prevé facilitar a los ciudadanos la presentación de quejas y reclamaciones sobre estos sistemas, y reforma el papel de la Oficina Europea de Inteligencia Artificial, que se encargaría de supervisar la forma en que se aplica el código normativo sobre IA.


Fuentes:

https://artificialintelligenceact.eu/

https://foreignpolicy.com/2023/06/14/eu-ai-act-european-union-chatgpt-regulations-transparency-privacy/

https://es.cointelegraph.com/news/european-union-ai-act-passes-in-parliament




martes, 2 de mayo de 2023

"Padrino" del Frankenstein advierte sobre la IA : desinformación, desempleo y una amenaza para la Humanidad

Publicado en El País
https://elpais.com/tecnologia/2023-05-02/geoffrey-hinton-el-padrino-de-la-ia-deja-google-y-avisa-de-los-peligros-de-esta-tecnologia.html




Geoffrey Hinton, el ‘padrino’ de la IA, deja Google y avisa de los peligros de esta tecnología

Este experto teme sobre todo que internet se vea inundada de falsos textos, fotos y vídeos, y que las nuevas herramientas remplacen a muchos trabajadores

El británico Geoffrey Hinton, uno de los grandes pioneros en el desarrollo de la inteligencia artificial (IA), ha dejado su trabajo en Google para poder advertir con mayor libertad de los peligros que plantean estas nuevas tecnologías, según aseguró en una entrevista publicada este lunes por The New York Times. A menudo llamado el padrino de la IA, Hinton aseguró que a sus 75 años lamenta ahora haber dedicado su carrera a este ámbito. “Me consuelo con la excusa normal: si no hubiese sido yo, otro lo habría hecho”, señaló al diario neoyorquino. La voz de alarma se suma a las advertencias que en los últimos meses han hecho otros expertos, sobre todo a raíz del lanzamiento de la inteligencia artificial generativa como el popular ChatGPT y las grandes apuestas que los gigantes tecnológicos están haciendo en este ámbito. Hinton era vicepresidente de Ingeniería en Google.

“Es difícil ver cómo se puede evitar que los malos actores lo usen para cosas malas”, dijo Hinton en la entrevista, en la que avisa sobre la excesiva velocidad a la que se están logrando avances. “Mire cómo era hace cinco años y cómo es ahora”, apuntó. “Tome la diferencia y propáguela hacia adelante. Eso asusta”, señaló Hinton, que el año pasado recibió el Premio Princesa de Asturias de Investigación Científica y Técnica junto a otros tres pioneros de la IA por su trabajo.

A corto plazo, este experto teme sobre todo que internet se vea inundada de falsos textos, fotos y vídeos, y que los ciudadanos no puedan ser capaces de distinguir lo que es real, pero también cree que estas tecnologías pueden reemplazar a muchos trabajadores y, más adelante, suponer incluso una amenaza para la humanidad. “Algunos creían en la idea de que estas cosas en realidad podrían volverse más inteligentes que las personas”, explicó. “Pero la mayoría de la gente pensaba que estaba muy lejos. Yo mismo pensaba que estaba muy lejos. Creía que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”, añadió.

En su opinión, se deberían frenar los trabajos en este ámbito hasta que se entienda bien si será posible controlar la IA, una idea en línea con otros llamamientos públicos de personalidades del sector tecnológico que han pedido suspender temporalmente los experimentos. Hace unas semanas se conocía que más de un millar de empresarios, intelectuales e investigadores de primer nivel relacionados con esta tecnología habían firmado una carta abierta en la que solicitan una moratoria en su desarrollo para recapacitar sobre sus consecuencias.

Más concretamente, estos expertos pedían una pausa de “al menos seis meses en el desarrollo y pruebas de sistemas de IA más poderosos que GPT4″, la última versión del gran modelo de lenguaje que usa ChatGPT. La carta advierte de que este último modelo ya es capaz de competir con los humanos en un creciente número de tareas, y que podría usarse para destruir empleo y difundir desinformación. Por ello, reclaman un desarrollo seguro y solo cuando estén seguros de que sus efectos serán positivos. “Desafortunadamente”, asegura la carta, “este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera sin control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”.

A través de Twitter, Hinton quiso puntualizar después que no deja Google para poder criticar a la empresa, sino para poder hablar de los peligros de la inteligencia artificial sin tener que preocuparse del impacto que esas opiniones causarían en la compañía en la que trabajaba, una empresa que según él “ha actuado de forma muy responsable”.

Geoffrey Hinton, profesor de la Universidad de Toronto (Canadá) y premio Fundación BBVA Fronteras del Conocimiento en 2017, desarrolló en 2004 los conceptos en los que se ha venido trabajando desde hace medio siglo y los ha orientado al aprendizaje mecánico y reconocimiento de elementos tan complejos como el habla o la imagen. Hinton creó una comunidad de investigación a la que se sumaron Yann LeCun, de la Universidad de New York, y Yoshua Bengio, de la de Montreal (Canadá). En 1986, Hinton inventó los algoritmos de retropropagación, fundamentales para el entrenamiento de redes neuronales. Con ellos, en 2012 consiguió crear una red neuronal convolucional llamada AlexNet, compuesta por 650.000 neuronas y entrenada con 1,2 millones de imágenes, que registró tan solo un 26% de errores en el reconocimiento de objetos y redujo a la mitad el porcentaje de sistemas anteriores. LeCun sumó una tecnología de reconocimiento óptico de caracteres.

“No me gustaban las primeras teorías de la inteligencia artificial (IA) porque se basaban mucho en la lógica y eso es algo que los humanos tardamos mucho en desarrollar”, explicó Hinton a EL PAÍS tras la concesión de su premio. El investigador explicó que estaba más interesado en conocer cómo funciona el cerebro humano, cuáles son los fundamentos del aprendizaje y en buscar la forma de aplicar esos principios a las máquinas. “El cerebro humano es la mejor máquina. Mi objetivo era comprender cómo trabaja la gente y simular ese sistema y creo que la mejor manera de hacerlo es construir modelos de redes neuronales artificiales”, explicó.

martes, 25 de abril de 2023

ALEMANIA se une a la lista de países contra ChatGPT

Publicado en Xataka
https://www.xataka.com/robotica-e-ia/sume-sigue-alemania-se-une-a-lista-paises-chatgpt-no-cumplir-proteccion-datos?utm_source=twitter&utm_medium=social&utm_campaign=botoneramobile_AMP



OpenAI tiene un problema en Europa: Alemania se une a la lista de países contra ChatGPT

ENRIQUE PÉREZ
@Lyzanor

OpenAI tiene un problema en Europa. Tras la decisión de Italia y España, ahora se une Alemania. El organismo regulador alemán ha decidido una investigación sobre OpenAI y ChatGPT, por una posible infracción del Reglamento General de Protección de Datos. Y el problema es que parece claro que OpenAI no está haciendo las cosas bien.

Alemania también quiere explicaciones. Ha sido Marit Hansen, comisaria del estado de Schleswig-Holstein, quien ha verbalizado la posición de Alemania: "queremos saber si se ha llevado a cabo una evaluación de impacto de la protección de datos y si los riesgos de protección de datos están bajo control".

De manera paralela, Hansen explica que Alemania ha pedido "información sobre cuestiones derivadas del Reglamento General Europeo de Protección de Datos" a OpenAI. Es decir, han solicitado respuesta ante múltiples cuestiones que siguen sin respuesta y que podrían ser indicio de una ilegalidad.

Sin bloqueo por el momento. Al contrario que en Italia, donde OpenAI decidió paralizar el servicio. En Alemania todavía sigue funcionando ChatGPT. Esta semana OpenAI ha recibido la notificación por parte de las autoridades alemanas y habrá que ver cuál es el paso que toma la compañía.

Se trata de un proceso equivalente al que tomó Francia, donde solicitó a OpenAI cinco peticiones.

Hasta el 11 de junio. Es la fecha marcada por Alemania. Hasta el 11 de junio, OpenAI tiene de margen para responder a las peticiones de la agencia alemana, donde ha solicitado que describa cómo se están utilizando los datos de los europeos y cómo pueden estos modificar sus datos en caso de que haya algún tipo de error.

Tenemos una fecha con más margen que en Italia, que ha dado hasta este 30 de abril. Si OpenAI responde, podrá volver a Italia. De lo contrario, quedará prohibida. Algo similar podría ocurrir en Alemania.

Ulrich Kelber, responsable de protección de datos de Alemania, ha explicado que un bloqueo a ChatHPT es muy posible.

Y falta la Unión Europea. Los distintos países están tomando la delantera a la hora de solicitar exigencias a OpenAI. No son los únicos, pues desde el 'European Data Protection Board' ya se está estudiando cuál es el paso a seguir.

Según explican distintos expertos a Xataka, lo más probable es que desde Europa se plantee otra fecha y múltiples exigencias, previsiblemente con varios niveles. Unos más urgentes de aplicación inmediata si quieren seguir funcionando y otros a aplicar con algo más de margen.

OpenAI tiene que mover ficha ya. Todas las miradas están puestas en OpenAI, de quienes se espera que hagan algún tipo de anuncio oficial próximamente. Se desconoce si llegará a tiempo al margen dado por Italia o si decidirán ver cuánto tiempo les permite la Unión Europea.

Lo que sí parece claro por la posición de las distintas agencias es que ChatGPT incumple el Reglamento General de Protección de Datos. En sus manos está remediarlo.

martes, 18 de abril de 2023

ChatGPT usa millones de textos que tienen copyright

Publicado en Xataka
https://www.xataka.com/robotica-e-ia/openai-ha-usado-millones-textos-para-entrenar-a-chatgpt-problema-que-muchos-ellos-tienen-copyright




OpenAI ha usado millones de textos para entrenar a ChatGPT. El problema es que muchos de ellos tienen copyright

14 Abril 2023
JAVIER PASTOR
@javipas


ChatGPT fue entrenado con una enorme cantidad de datos obtenidos de internet. No solo sitios web, sino artículos, libros, publicaciones en redes sociales o estudios académicos. El modelo de IA conversacional creado por OpenIA no tenía en cuenta la procedencia de los datos: solo veía el texto y aprendía patrones y relaciones entre palabras, frases o párrafos. ¿El problema? Que la inmensa mayoría de esos textos probablemente está protegidos por copyright. ¿Violan OpenAI y ChatGPT los derechos de autor?

¿Hubo copia de contenidos durante el entrenamiento? No hay información sobre si durante el proceso de entrenamiento, los textos usados por ChatGPT se copiaron o solo se referenciaron. Al preguntar a ChatGPT la respuesta es singular:

Durante el proceso de entrenamiento, se utiliza texto de diversas fuentes para entrenar el modelo ChatGPT. Es probable que el texto se copiara en una base de datos interna de OpenAI con el fin de entrenar el modelo. Sin embargo, el texto de entrenamiento se suele preprocesar para eliminar cualquier información sensible, como identificadores personales, texto protegido por derechos de autor, etc. Además, el texto también se utiliza para entrenar el modelo y no se almacena en una base de datos. El modelo utiliza el texto para aprender patrones y la estructura del lenguaje y, una vez terminado el entrenamiento, ya no necesita el texto.

A pesar de lo que indica ChatGPT, no es probable que se eliminara texto protegido por derechos de autor, ya que la mayor parte de su conjunto de entrenamiento es este tipo de contenido, como se puede comprobar al tratar de que ChatGPT imite cierto estilo o 

¿Es la salida de ChatGPT una obra derivada? Según la Ley de Propiedad Intelectual, la obra derivada puede ser una modificación, adaptación o transformación de una obra existente, donde se garantizan los derechos de autor de la obra originaria. Los expertos indican que todo el texto generado por ChatGPT podría considerarse como una obra derivada.

Uso justo. Otro de los conceptos que se manejan en este ámbito es si OpenAI hace un uso justo o legítimo (fair use). Aun suponiendo que durante el proceso de entrenamiento de ChatGPT se copió texto y que lo generado es una obra derivada de ese texto protegido por el copyright, ¿se podría considerar que ChatGPT hace un uso legítimo de esos contenidos? Teniendo en cuenta que este modelo mezcla contenidos de todo tipo de obras, parece que no hay aquí un uso injustificado. Podría haber, eso sí, escenarios en los que se pueden infringir los derechos de autor si por ejemplo le pidiéramos a un motor basado en ChatGPT que nos escribiese la próxima novela de Harry Potter como si fuera J. K. Rowling. En ese caso, si además el fin es comercial, podría haber violación de esos términos legales.

Ya ha habido demandas. La amenaza de demandas legales es evidente para OpenAIdesde que lanzaron este tipo de productos. De hecho la empresa ha sido demandada junto a Microsoft y GitHub por violar la ley del copyright en GitHub Copilot, y también lo fueron posteriormente Stable Diffusion y Midjourney. Tanto Copilot como esas plataformas fueron entrenadas con copias no autorizadas de código o imágenes.

Ni siquiera atribuyen. Según OpenAI, el sistema en el que se basa GitHub Copilot es Codex, que "fue entrenado con decenas de millones de repositorios públicos", incluyendo código del propio GitHub. El problema, como indican en OnMSFT, es que los repos que se utilizaron suelen usar una licencia que requiere atribución cuando se usa el código de esos repositorios. Según Microsoft este es un uso justo del código, pero para programadores como Matthew Butterick está "borrando tu comunidad Open-Source".

Y mucho menos pagar. Hay otro problema aquí, y es que por ejemplo algunos medios de comunicación como The Wall Street Journal o la CNN han exigido que ya que ChatGPT hace uso de sus contenidos como parte de su entrenamiento, OpenAI debe licenciar los derechos para hacerlo adecuadamente. O lo que es lo msmo, pagar.

Bing con ChatGPT al menos da referencias. El problema de Copilot afecta desde luego a Stable Diffusion, Midjourney o DALL-E 2 en el ámbito de las imágenes, y por eso se han impulsado también demandas como lade Getty. Entre las soluciones está la atribución, y aquí tenemos un buen ejemplo en Bing con ChatGPT, que cuando contesta a nuestras preguntas a menudo ofrece referencias de las fuentes en las que se basa, algo que ChatGPT no hace.

Antes fue el copyright, ahora la privacidad. A ChatGPT le están creciendo los enanos, sobre todo porque además de los potenciales problemas por esa forma indiscriminada de entrenar sus modelos, ahora se enfrenta a problemas por sus políticas de privacidad. En concreto, por la forma en la que recolecta datos de los usuarios y si eso puede estar violando el RGPD. Italia ya ha prohibido el uso de ChatGPT por esa razón —aunque ya ha explicado cómo puede levantar la prohibición—, y España y Europa están investigando precisamente si seguir ese ejemplo.


lunes, 13 de marzo de 2023

ChatGPT vs Google: ¿El fin de la barra de búsqueda?

Publicado en Letras Libres
https://letraslibres.com/ciencia-y-tecnologia/future-tense-futuro-barra-busqueda-chatgpt/



¿El fin de la barra de búsqueda?

Industrias enteras dependen de la manera en que Google gestiona las búsquedas y la publicidad en línea. Chatbots como Chat GPT podrían cambiar eso, y alterar de paso el modo en que estructuramos el conocimiento humano.


Por Ed Finn
10 marzo 2023

Como buen niño de los 80, puedo dividir claramente mi vida en Antes de Google y Después de Google. Con el inicio del milenio, internet dejó de ser una maraña de listas incompletas de cosas extrañas para convertirse en una muy útil base de datos de investigación. Desde entonces, buscar en Google ha sido una de las únicas constantes tecnológicas de mi vida adulta, que ha persistido a pesar del auge de los teléfonos inteligentes, las redes sociales, los servicios de streaming, e incluso la entrega de burritos con drones (por cierto, ¿qué pasó con eso?).

En todo este tiempo, nadie ha sido capaz de desafiar el papel de Google como guardián de la abundancia digital. Más de 90% de los usuarios de internet de todo el mundo utilizan Google para comprar, navegar y satisfacer su curiosidad sobre prácticamente todo. Los anuncios que Google a partir de esta actividad (y en otros sitios web) han alimentado una máquina de dinero que generó más de un cuarto de billón de dólares en ventas el año pasado.

Google empezó como una especie de creador de mapas de internet, pero gracias a su éxito se convirtió gradualmente en el arquitecto de la World Wide Web. Hoy, industrias enteras, desde el comercio minorista hasta los seguros de automóvil, dependen de la manera en que Google gestiona los resultados de las búsquedas y la publicidad en línea. La frontera electrónica se hizo cada vez más corporativa, organizada de acuerdo con la tiranía del clic: ¿cuántos usuarios hacen clic en tu anuncio, en tu titular, en tu video? Esa cifra determina cuánto dinero se puede ganar en internet (y explica la alucinante cantidad de artículos escritos con el propósito específico de aparecer cuando tecleas, por ejemplo, “¿A qué hora empiezan los Oscares?”)

La economía basada en los clics ha hecho que el mundo sea más eficiente en algunos aspectos, pero ha convertido esta milagrosa base de datos de información global en una frenética subasta en la que todos los sitios web buscan subir a lo más alto en los resultados de búsqueda, conseguir el mayor número de clics y retener el mayor número de ojos. Cada página web que cargas es un poco más lenta gracias a las subastas para determinar qué anuncios se verán. Un sinfín de periodistas profesionales libraron batallas perdidas contra las mezquinas métricas de clics y porcentajes de descarga de páginas, y luego se adaptaron a ellas, convirtiendo la “optimización de motores de búsqueda” en una de las habilidades periodísticas más preciadas. YouTube y las redes sociales persiguen los clics con tal empeño que, sin darse cuenta, crean algoritmos que enganchan a los usuarios con contenidos cada vez más lascivos y radicales. Google ha construido un internet en el que ganan los que más clics hacen, y Google desempeña un papel clave en el recuento de esos clics.

¿Y si todo esto cambia?

La llegada de ChatGPT de OpenAI a finales de 2022 hizo temblar las salas de juntas de las grandes empresas de tecnología. Microsoft, rival de Google, no tardó en utilizar su participación en OpenAI para crear una versión beta de algo nuevo: un agente conectado a Bing, el motor de búsqueda de Microsoft, que puede conversar. Google conectó su propio chatbot de nueva generación, Bard, a su principal producto de búsqueda. Estamos en los primeros tiempos de todo eso, y se nota: la nueva y parlanchina Bing de Microsoft hace poco asustó a un periodista del New York Times con su megalomanía y sus insinuaciones amorosas. Bard, por su parte, cometió un error fáctico en su demo de lanzamiento, haciendo que las acciones de la empresa matriz Alphabet cayeran en picada.

La rapidez con la que Google ha introducido una herramienta de inteligencia artificial a medio cocer en su mayor fuente de ingresos, a pesar de la amenaza que Bard podría representar para el modelo de negocio, indica la seriedad con la que nuestro guardián de toda la información del mundo se está tomando el momento. (Tras la publicación de este artículo, un portavoz de Google se puso en contacto para aclarar que la empresa no tiene intención de sustituir Search por Bard y que Bard, como chat, es distinta de otras grandes herramientas de inteligencia artificial basadas en modelos lingüísticos que se presentaron al mismo tiempo, incluida una que funciona con Search para extraer información de toda la web. El portavoz dijo que Bard no estaba “cambiando la dirección” de Search y reiteró que ninguna de las dos herramientas se ha lanzado públicamente).

¿Qué podría significar sustituir la economía del clic y su piedra angular, la barra de búsqueda, por algo parecido a una conversación? Esto es lo que ofrecen Bard y  Bing con ChatGPT: la posibilidad de hacer preguntas más humanas (¿cuál es el mejor sitio para comer un burrito por aquí y qué drones recomendarías para transportarlo?), y mantener conversaciones con un sistema que retiene el contexto. (Aunque cabe destacar que, en un intento por frenar algunos de los comportamientos más precipitados de su chatbot, Microsoft limitó recientemente a los usuarios a hacer cinco preguntas por sesión). En lugar de ofrecerte un menú de enlaces (y anuncios), tu interlocutor/mayordomo informativo va al grano, quizás ofreciendo algunas notas a pie de página para que sigas leyendo. Si se lo pides, hasta te ofrecerá sus respuestas con voz de pirata o en rimas.

Antes de que apareciera Google Search y devorara la industria del acceso a la información digital, este tipo de síntesis era lo que todo el mundo pensaba que sería nuestro futuro digital. Los primeros visionarios, como Vannevar Bush, previeron el océano de información en el que nadamos e imaginaron sistemas que nos permitirían seguir a “pioneros” y sintetizadores. Los escritores de ciencia ficción de los años 80 y 90 imaginaron obras de inteligencia artificial que actuaban como bibliotecarios (y a veces se les llamaba así), como el educado subsistema de Snow Crash, del autor Neal Stephenson, capaz de resumir libros, correlacionar información y mantener largas conversaciones con humanos. DARPA, el ala de investigación del ejército estadounidense, invirtió millones en un proyecto llamado Personal Assistant that Learns-PAL (Asistente Personal que Aprende) para construir algo similar en la vida real para los mandos militares. Con el tiempo, esa investigación dio lugar a Siri y, con ella, al sueño de una computadora con la que se pudiera hablar de verdad.

Una interfaz basada en conversación supondría un cambio radical respecto a la forma en que hemos aprendido a trabajar en sistemas basados en palabras clave, como Google. Cuando tengo una pregunta complicada que hacer en internet, a menudo tengo que hacer cierto tipo de esfuerzo en mi consulta, tratando de imaginar posibles escenarios en los que alguien podría haberla respondido y que podrían ser muy diferentes de mi contexto. La lista de resultados de búsqueda que aparece, con enlaces patrocinados en la parte superior, me ofrece opciones sobre qué pista seguir o a qué autoridad creer. Todo internauta aprende rápidamente a evaluar la credibilidad y utilidad de un enlace en función de su URL y de cómo aparece en la búsqueda de Google.

Sustituir esa consulta por una conversación representa una transformación a lo que Google lleva tiempo llamando la “búsqueda del conocimiento” de sus usuarios. La clásica barra de búsqueda se esfuerza por ser omnipresente, esencial y casi invisible. Pero estos nuevos chatbots no se apartan del camino. Se adelantan, dan la mano, presentan personalidad y afecto en sus interacciones con los usuarios. Ofrecen síntesis, extrapolación y refinamiento repetido, mediante preguntas de seguimiento y diálogo. Ofrecen la ilusión de un criterio.

En lugar de una lista de posibles fuentes, tenemos una sola voz. Cuando los usuarios interactúan con Bing (R.I.P. Sydney) o Bard, los sitios subyacentes se esconden como notas a pie de página o se ocultan por completo. No muestran sus cálculos. Es tentador para todos los que alguna vez hemos murmurado con frustración “dime ya la respuesta” cuando la búsqueda de Google no da resultados. Pero también es preocupante. Dejando a un lado problemas bien documentados que tienen estos sistemas, como equivocarse, inventar cosas y asustar a la gente, la ilusión de una respuesta única y coherente puede ser peligrosa cuando la naturaleza de la verdad es complicada y controvertida.

La diferencia entre una pregunta y una consulta a una base de datos tiene enormes implicaciones para la forma en que nos relacionamos con el extenso universo del conocimiento humano y entre nosotros mismos. Una lista de resultados de búsqueda, por muy elaborada y manipulada que esté, sigue recordándonos que puede haber respuestas contradictorias a nuestra pregunta. Una interfaz conversacional con una inteligencia artificial encantadora y simplista oculta toda esa confusión. Estos sistemas podrían convertirse en otra capa de ofuscación entre nosotros y la fuente del conocimiento humano. Otra caja negra, pero que habla, cuenta chistes y puede escribir un soneto si se lo ordenan. Irónicamente, OpenAI está intentando resolver el persistente problema de que estos sistemas “alucinen” con información falsa enseñándoles a validar sus resultados mediante un motor de búsqueda.

Pero va a ser mucho más difícil vender clics desde un bot. ¿Qué ocurrirá con la economía del clic si una inteligencia artificial se convierte en un extraño mutante de un portavoz y una bola mágica, o algo así como un avatar de la suma total del conocimiento humano? Recursos ricos en información, como periódicos y foros de debate, podrían encontrarse con que estos sistemas recojan su material y lo reformulen de forma tan elocuente que nadie se moleste en navegar hasta la página original. Parece una invitación para deslizarse aún más en el sospechoso camino en el que los creadores de contenidos dependen de los gigantes tecnológicos para que les ofrezcan una parte de los ingresos, sin que haya forma de verificar sus cifras de manera independiente.

La cuestión de cuál podría ser el modelo de negocio para estos nuevos guardianes, y más aún para los proveedores repentinamente invisibles de esa información a través de internet, nos lleva a una cuestión más profunda: estamos hablando de poner a un nuevo arquitecto a cargo de Internet.

Los motores de búsqueda se basan en los hipervínculos, esas conexiones explícitas entre palabras y páginas que son legibles y programables por los humanos. Desde los albores de la enciclopedia moderna, se podría argumentar que toda la estructura del conocimiento humano empírico se construye a partir de las piezas clave de las notas a pie de página y las referencias cruzadas.

Esto contrasta con grandes modelos lingüísticos como ChatGPT: sistemas de aprendizaje automático que, por su diseño, identifican relaciones complejas entre palabras y frasesm basándose en probabilidades, lo que lleva a que algunas personas los llamen “loros estocásticos“. Ningún ser humano, ni siquiera los ingenieros que los construyeron, puede entender cómo funcionan esas asociaciones entre miles o millones de variables ni, lo que es más importante, por qué hacen determinadas asociaciones. Y eso dificulta mucho la corrección de errores o la prevención de daños sin recurrir a filtros y censuras torpes. Pasar de los vínculos a las relaciones probabilísticas es como pasar de la física newtoniana a la rareza cuántica, o de la verdad a algo que solo suena verdadero. ¿Cómo lo sabes? Porque te lo dijo el chatbot. ~



Este artículo es publicado gracias a una colaboración de Letras Libres con Future Tense, un proyecto de Slate, New America, y Arizona State University.

viernes, 10 de marzo de 2023

ChatGPT usa y explota obreros del Tercer Mundo

Publicado en BBC News
https://www.bbc.com/mundo/noticias-64827257?at_link_origin=BBC_News_Mundo&at_link_id=938D2328-B909-11ED-A6FE-77DCFF7C7F44&at_medium=social&at_link_type=web_link&at_ptr_name=facebook_page&at_format=link&at_campaign_type=owned&at_bbc_team=editorial&at_campaign=Social_Flow&fbclid=IwAR25TC34EWoPKlzdJfL9eUEnLNA-IvBxmNPv_ZxpB-EKTLmNKe_CDqB0tXM



Los cientos de miles de trabajadores en países pobres que hacen posible la existencia de inteligencia artificial como ChatGPT (y por qué generan controversia)

Veronica Smink

BBC News Mundo

6 marzo 2023

 

Desde que estrenó a finales de 2022, el programa de inteligencia artificial ChatGPT no ha dejado de ser tema de conversación, tanto de quienes admiran este avance tecnológico como de quienes temen sus repercusiones.

 

Gran parte del debate se ha centrado en los usos que podría tener este chatbot inteligente, que es capaz de responder casi a cualquier pregunta de un usuario y de producir textos que parecen escritos por un humano.

 ¿La utilizarán los estudiantes para que les haga los deberes? ¿Y los dirigentes para que les escriba los discursos? ¿Podría incluso escribir este artículo que estás leyendo?

 

Además de la gran inquietud sobre si dejará este programa de inteligencia artificial (IA) sin trabajo a millones de personas que hoy realizan tareas que esta máquina puede realizar en cuestión de segundos, otra controversia tiene que ver con los derechos de autor.

ChatGPT utiliza información que obtiene principalmente de internet. Pero en general no cita las fuentes, llevando a acusaciones de plagio que ya han derivado en denuncias legales.

Pero detrás del ruido que ha generado esta innovación, y el avance que significa para las tecnologías que usan IA, se esconde otra polémica que es mucho menos conocida.

Tiene que ver con los cientos de miles de trabajadores, muchos de bajos ingresos, sin los cuales no existirían sistemas de IA como ChatGPT.

No hablamos de los programadores que diseñan los algoritmos, que suelen trabajar en lugares como Sillicon Valley y cobrar buenos sueldos.

Hablamos de la "fuerza laboral oculta", como la llamó la asociación sin fines de lucro Partnership on AI (PAI), que agrupa a organizaciones académicas, de la sociedad civil, de los medios y de la propia industria involucrados con la IA.

¿Quiénes componen esta fuerza escondida? Personas subcontratadas por las grandes empresas tecnológicas, en general en países pobres en el hemisferio Sur, para "entrenar" a los sistemas de IA.

 

Etiquetadores

Estos hombres y mujeres realizan una tarea tediosa -y potencialmente dañina para la salud mental, como veremos más adelante- pero que es esencial para que funcionen programas como ChatGPT.

Consiste en etiquetar millones de datos e imágenes para enseñarle a la IA cómo actuar.

Tomemos como ejemplo el chatbot que está causando sensación.

Cuando le preguntas algo a ChatGPT, el programa usa unos 175.000 millones de "parámetros" o variables, para decidir qué responder.

Como ya mencionamos, este sistema de IA utiliza como fuente principal información que obtiene de internet. Pero ¿cómo distingue los contenidos? Gracias a estas referencias, que le son "enseñadas" por seres humanos.

"No hay nada inteligente de la inteligencia artificial. Tiene que aprender a medida que se le entrena", explica a BBC Mundo Enrique García, cofundador y gerente de DignifAI, una empresa estadounidense basada en Colombia que se dedica a contratar a estos "anotadores de datos".

Estos profesionales, más conocidos como "etiquetadores de datos" (data labelers, en inglés), identifican información, como textos, imágenes y videos, y le indican al programa qué es qué, para que la máquina pueda entender qué es cada cosa y aprender en qué contexto usarla.

En la industria tecnológica llaman a este tipo de tarea "enriquecimiento de datos".

Pero, irónicamente, y a pesar de que se trata de un trabajo esencial para el desarrollo de la IA, los enriquecedores de datos conforman el eslabón más pobre en la cadena de producción de las grandes empresas tecnológicas.

Un hecho que fue reconocido por Partnership on AI.

"A pesar del papel fundamental que desempeñan estos profesionales de enriquecimiento de datos, un creciente cuerpo de investigación revela las condiciones laborales precarias que enfrentan estos trabajadores", señaló el organismo.

"Esto podría ser el resultado de esfuerzos por ocultar la dependencia de la IA de esta gran fuerza laboral al celebrar las ganancias de eficiencia logradas por esta tecnología. Fuera de la vista también está fuera de la mente", denunció la coalición, a la que también forma parte OpenAI, la empresa que creó el ChatGPT.

 

Menos de US$2 la hora  


Una investigación de la revista TIME reveló que muchos de los etiquetadores de datos que fueron subcontratados por OpenAI para entrenar a su ChatGPT recibieron sueldos de 
entre US$1,32 y US$2 la hora.

Según el reportaje del periodista Billy Perrigo, la compañía tecnológica, que cuenta entre sus principales inversores a Microsoft, tercerizó el trabajo de enriquecimiento de datos a través de una 
empresa de outsourcing llamada Sama, basada en San Francisco, que contrató a trabajadores en Kenia para realizar ese proyecto.

A través de un comunicado, un vocero de OpenAI señaló que esta empresa era la responsable de administrar los sueldos y las condiciones laborales de los etiquetadores contratados para trabajar en el programa ChatGPT.

 

"Nuestra misión es garantizar que la inteligencia artificial general beneficie a toda la humanidad, y trabajamos arduamente para construir sistemas de IA seguros y útiles que limiten el sesgo y el contenido dañino", dijo el portavoz.

Sama, que también contrata a etiquetadores en otros países de bajos ingresos como Uganda e India para clientes como Google y Meta (dueña de Facebook), se promociona como una "IA ética" y asegura haber sacado a más de 50.000 personas de la pobreza.

 

Sin embargo, Martha Dark, directora de la organización activista británica Foxglove, cuya meta es "hacerle frente a los gigantes tecnológicos y a los gobiernos, por un futuro en el que la tecnología sea usada para beneficiar a todos, no solo a los ricos y poderosos", le dijo a BBC Mundo que las grandes empresas tecnológicas usan el outsourcing para pagarle a estos trabajadores mucho menos de lo que corresponde.

"Todas estas compañías son empresas multimillonarias y es francamente inadecuado que le estén pagando US$2 la hora a las personas que hacen posible que estas plataformas existan", señaló.

 

Pero para Enrique García, de DignifAI, la polémica sobre los sueldos "es un tema de perspectiva".

En Europa y Estados Unidos se puede entender que ganar eso sea poco, observa, pero en otros países puede representar un buen sueldo.

"Mucha gente critica a nuestra industria por el tema de la paga, pero en DignifAI nuestro piso salarial es de US$2,30 la hora, y eso representa 1,8 veces el sueldo mínimo de Colombia", señala.

"Si el proyecto es más complejo y requiere de anotadores que sean expertos, por ejemplo, arquitectos o médicos, la paga puede subir hasta US$25 la hora", detalla.

Aunque reconoce que hay algunas empresas que pagan por debajo del sueldo mínimo, considera injusto poner la lupa solo sobre este sector.

"Hay dinámicas de outsourcing en muchas industrias, no solo esta, así que tampoco es justo etiquetarnos a nosotros como los 'digital sweatshops´ (talleres clandestinos digitales)", dice.

 

Impacto social

García también resalta que hay varias empresas del sector, como la suya, que son de impacto social y tienen como objetivo "aumentar la productividad y dignidad de las personas".

De hecho, el lema de DignifAI, que cuenta con el apoyo de varios organismos de ayuda, es: "Outsourcing dignity through artificial intelligence" ("Tercerizando dignidad a través de la inteligencia artificial")

La empresa está basada en Cúcuta, en la frontera entre Colombia y Venezuela, y tiene como misión darle trabajo a los migrantes venezolanos que cruzan hacia el país vecino y también a los colombianos desplazados internamente.

"Muchos de ellos antes de trabajar con nosotros estaban ganando US$4 o US$5 al día. Para esta población vulnerable que no tiene opciones de mercados laborales ganar 1,8 el sueldo mínimo colombiano es bastante atractivo", afirma.

Ingrid, una venezolana de 42 años que llegó a Colombia a finales de 2018, da cuenta de ello.

La licenciada en Educación, quien prefirió no dar su apellido, le contó a BBC Mundo que no ha podido ejercer la docencia, como hacía en su país de origen, porque aún no ha logrado convalidar su título, y dijo que trabajar como anotadora para DignifAI le permitió ganarse la vida y además formarse en otra profesión.

"Se trabaja cuatro horas al día y he podido dedicar el tiempo restante a realizar un curso de diseño gráfico", contó, sobre su próximo proyecto laboral.

Aunque ahora ya no trabaja como anotadora, porque fue ascendida al cargo de supervisora de proyectos, no duda en recomendar ese empleo.

"Es más provechoso, menos agotador y mejor remunerado que ser mesera, asistente part time o hacer tareas físicas", observa, señalando que la mayoría de sus compañeros son amas de casas, vendedores ambulantes o estudiantes.


Salud mental


Más allá de la paga, otro tema que genera polémica en torno a los etiquetadores de datos es el efecto del trabajo sobre su salud mental.

No es lo tedioso de la tarea lo que preocupa a algunos expertos -aunque es otra crítica que se hace sobre esta labor- sino el material tóxico al que están expuestos algunos anotadores. 

Y es que, parte de la función de estos entrenadores es enseñarle al programa de IA qué información no es apta para ser publicada. 

Para ello, algunos -no fue el caso de Ingrid- deben adentrarse en los rincones más oscuros de internet y catalogar todo el vasto caudal de material violento, siniestro y perverso que reside allí, para así mostrarle a la máquina a ignorar el costado putrefacto de la gran red de redes. 

Pero según Martha Dark de Foxglove, realizar este trabajo, que es vital, "puede causar trastorno de estrés postraumático y otros problemas de salud mental en muchos trabajadores". 

Su organismo representa a un exempleado de Sama que trabajó como moderador de Facebook en Kenia y en 2022 demandó tanto a Sama como a Meta, dueña de la red social, por el daño psicológico que sufrió, una causa que se sigue deliberando en los juzgados de Nairobi. 

"Estos trabajos tienen un costo sobre la salud mental de quienes los hacen y deberían recibir cuidados psiquiátricos adecuados además de un salario más justo", le dijo Dark a BBC Mundo. 

Según la activista, las grandes empresas tecnológicas tienen recursos económicos de sobra para proveer este tipo de asistencia, pero no lo hacen porque "ponen las ganancias por encima de la seguridad de sus trabajadores".

Enrique García reconoce que las grandes empresas podrían invertir más en la contratación de etiquetadores, pero afirma que ponerles muchas exigencias podría hacer que decidan buscar anotadores en otros lados.

 

"Puede ser que las grandes tecnológicas podrían pagar más, pero estamos muy agradecidos por las oportunidades", dice. 

"O nos ponemos defensivos sobre lo tacaño del cliente o aceptamos las oportunidades que hay, que pagan por encima del mínimo legal", afirma.

"Por lo menos estamos trayendo oportunidades de generación de ingresos acá donde, sin esta alternativa, no las habría".

ESPAÑA: profesores de la Complutense llevan más de 300 firmas al Rectorado para que corte relaciones con empresas y academias cercanas a ISRAEL

Publicado en El País https://elpais.com/espana/madrid/2024-05-10/los-maestros-de-la-complutense-llevan-mas-de-300-firmas-al-rectorado-para-...