Mostrando entradas con la etiqueta ChatGPT. Mostrar todas las entradas
Mostrando entradas con la etiqueta ChatGPT. Mostrar todas las entradas

viernes, 12 de enero de 2024

OpenAI asegura que es imposible crear una Inteligencia Artificial como ChatGPT sin infringir 'los derechos de autor'

Publicado en elEconomista.es
https://www.eleconomista.es/tecnologia/noticias/12613903/01/24/openai-asegura-que-es-imposible-crear-una-inteligencia-artificial-como-chatgpt-sin-infringir-los-derechos-de-autor.html


OpenAI asegura que es imposible crear una Inteligencia Artificial como ChatGPT sin infringir 'los derechos de autor'

Artistas y autores de todo el mundo denuncian un "robo sistemático a escala masiva"
  • El "boom" de la IA ha sido tan grande y rápido que no estamos preparados para afrontar los problemas que surgen


8/01/2024 - 16:16

Tener que sacrificar algo para conseguir otra cosa es un principio que se puede aplicar a prácticamente cualquier aspecto de la vida, y es que como dice el dicho, quien algo quiere algo cuesta. En Inteligencia Artificial pasa lo mismo, o por lo menos eso es lo que aseguran desde la compañía líder de este sector, OpenAI.


La Inteligencia Artificial (IA) son programas informáticos que ejecutan operaciones y tareas comparables a las que realiza la mente humana en lo que se refiere al aprendizaje o uso de la lógica. Y al igual que una persona necesita ser formada y educada para poder hacer cualquier labor o acción, que va desde andar, leer, sumar hasta aprender a programar, las máquinas también lo necesitan.

De hecho, cada día que pasa la IA se hace más inteligente, ya que con el uso que hacen los usuarios de ella, sea para lo que sea, está aprendiendo y extendiendo sus conocimientos. Sin embargo, esta forma de aprender a chocado de frente con el principio de los derechos de autor, debido a que las compañías de IA no están dando el reconocimiento a los autores por entrenar a sus máquinas con sus obras, imágenes y demás archivos.

Fue el mes pasado cuando el New York Times denunció a OpenAI y a Microsoft por usar sus publicaciones para formar a ChatGPT, acusándoles de "uso ilícito" de su trabajo para crear sus productos. La compañía fundada por Sam Altman, no ha negado que usasen los artículos de este medio para entrenar a su IA, pero tal y como han alegado a la Comisión de Comunicaciones y Asuntos Digitales de la Cámara de los Loresde no hacerlo habría sido "imposible" crear una IA con el nivel que tiene ChatGPT.

"Dado que los derechos de autor cubren hoy prácticamente todo tipo de expresión humana -incluidas entradas de blog, fotografías, mensajes de foros, fragmentos de código de software y documentos gubernamentales-, sería imposible entrenar los principales modelos de IA actuales sin utilizar materiales protegidos por derechos de autor". defienden desde OpenAI.

La compañía aseguró que "limitar los datos de entrenamiento a libros y dibujos de dominio público creados hace más de un siglo podría dar lugar a un experimento interesante, pero no proporcionaría sistemas de IA que satisfagan las necesidades de los ciudadanos de hoy." defendiendo la necesidad de usar todos los contenidos disponibles sin importar a quién pertenecen.

OpenAI asegura que respeta "los derechos de los creadores y propietarios de contenidos", sin embargo cree que la ley de 'copyright' y derechos de autor no prohíbe "el entrenamiento", como se denomina la formación de la IA.

Con tantos y tan rápidos avances en IA, se están generando una cantidad de problemas al que ni compañías ni gobiernos están preparados o si quiera mentalizados para solucionar. OpenAI asegura que estos entrenamientos tan solo suponen un ejemplo entre mil otros, mientras que cada vez más autores, artistas y demás creadores denuncian que la IA se está apropiando de sus publicaciones y no están ganando nada a cambio, ejerciendo un "robo sistemático a escala masiva".

viernes, 15 de diciembre de 2023

Revista Nature reconoce a ChatGPT como autor estelar del año

Publicado en Nature
https://elpais.com/ciencia/2023-12-13/la-revista-nature-elige-por-primera-vez-entre-sus-cientificos-del-ano-a-un-ente-no-humano-chatgpt.html




La revista ‘Nature’ elige por primera vez entre sus científicos del año a un ente no humano: ChatGPT

La prestigiosa publicación científica destaca al chabot junto a uno de sus creadores, a una pionera olvidada de los fármacos para perder peso y al científico detrás de un avance histórico contra el cáncer


Cada diciembre, la revista Nature elige a diez protagonistas de algunas de las historias más relevantes para la ciencia ese año. En la selección que presenta hoy de 2023, por primera vez, ha incluido a un ente que no es humano. ChatGPT, un robot capaz de responder a preguntas y mantener conversaciones de una forma más o menos inteligente, ha ayudado a escribir trabajos académicos, ha resumido artículos científicos y ha elaborado documentos que han servido para pedir ayudas de investigación. Además, ha intensificado el debate en torno a los límites de la inteligencia artificial, la naturaleza de la inteligencia humana y el modo en que se tienen que regular estas nuevas tecnologías.

Junto al potencial que tiene esta tecnología para la gestión del conocimiento o, incluso, la generación de nuevo saber, los editores de Nature apuntan a la necesidad de transparencia en el manejo de una herramienta tan potente. “El tamaño y la complejidad de los modelos de lenguaje de gran tamaño [en los que se basan programas como ChatGPT] significa que son intrínsecamente cajas negras, pero comprender por qué producen lo que producen es más difícil cuando su código y sus materiales de entrenamiento no son públicos, como sucede con ChatGPT”, advierten. Aunque no se sabe lo que darán de sí estos modelos y los límites que pondrán la capacidad de computación o las bases de datos disponibles, la revolución de la inteligencia artificial generativa es imparable.

El cerebro humano tras la inteligencia artificial

Aunque se reconoce como protagonista a una máquina, en la selección de Nature también se incluye a uno de sus creadores. Ilya Sutskever, científico jefe y confundador de OpenAI, la organización que creó ChatGPT, es una de las mentes en la vanguardia de la inteligencia artificial generativa. Él vio esta compañía, regada con miles de millones de euros por Microsoft, como una oportunidad para desarrollar una inteligencia artificial general, capaz de superar a la de los humanos y de desarrollar su propia consciencia. En los últimos meses había dirigido sus esfuerzos hacia la creación de un método que permita dirigir y controlar sistemas de inteligencia artificial más inteligentes que los humanos.

Sutskever ve el potencial de la inteligencia artificial demasiado grande para que los modelos estén disponibles para cualquiera que quiera utilizarlos y fue de los primeros en darse cuenta de que los sistemas que habían empezado a desarrollar científicos como su mentor, Geoffrey Hinton, empezarían a mostrar sus capacidades actuales con el aumento de la capacidad de computación. Hace un mes se vio arrastrado por un torbellino de pasiones humanas en la empresa que fundó. Como miembro del consejo de administración de OpenAI, destituyó a su consejero delegado, Sam Altman, por pérdida de confianza. Tres días después aseguraba en un tuit que lamentaba esta decisión. Dos meses antes había advertido que quien valorase la inteligencia por encima del resto de cualidades humanas lo iba a pasar mal.

Nacen ratones a partir de células de dos machos

Katsuhiko Hayashi, de la Universidad de Osaka, anunció en marzo que había creado crías de ratón a partir de células de dos machos. Hayashi y su equipo ya habían logrado crear, en 2016, óvulos de ratón funcionales a partir de células madre. En esta ocasión, tomaron células de las colas de ratones macho, con sus cromosomas X e Y, y las convirtieron en células madre. En este proceso, el 3% perdieron sus cromosomas Y, y fueron seleccionadas por los investigadores, que les aplicaron a continuación un tratamiento para causar errores durante la división celular. Algunos de esos fallos, produjeron células con dos cromosomas X, como las femeninas, y continuaron con el proceso para convertir esas células madre en ovocitos. Durante cada paso de este minucioso trabajo se pierden muchas células. Finalmente, fueron capaces de crear 630 embriones para implantarlos en ratonas. De ellos, nacieron siete crías. Los investigadores consideran lejana la aplicación de estas técnicas a humanos, que tienen unas células con las que es más complicado trabajar, pero quieren aplicarla a salvar el rinoceronte blanco del norte (Ceratotherium simum cottoni), una especie de la que solo quedan dos hembras.

La olvidada de las pastillas para adelgazar

Una de las noticias científicas del año ha sido la generalización del uso para la obesidad de los análogos de GLP-1. Estos fármacos, creados en principio para tratar la diabetes, imitan las hormonas que de forma natural nos hacen sentirnos saciados después de comer. Su efectividad para hacer perder peso los han convertido en un éxito de ventas. La revista Nature recuerda que este producto ha sido posible, en parte, gracias al trabajo pionero de Svetlana Mojsov, una investigadora de la Universidad Rockefeller, en Nueva York (EE UU), que identificó y caracterizó la hormona y creó péptidos y anticuerpos que hicieron posibles los experimentos que mostraron que GLP-1 podía reducir los niveles de glucosa en sangre. Pese al éxito de fármacos como la semaglutida, que tienen ventas de unos mil millones de dólares mensuales, Mojsov ha sido ignorada durante mucho tiempo. Después de años de lucha, la investigadora ha logrado que revistas como Cell y Nature hayan introducido cambios en sus publicaciones para recoger su trabajo con estas moléculas cuando estaba en el Massachusetts General Hospital de Boston (EE UU).

Progreso contra la malaria

Los grandes protagonistas de la ciencia mundial se suelen concentrar en países ricos, donde existen los recursos necesarios para pagar cerebros y equipos. En la lista de este año, Halidou Tinto, director de la Unidad de Investigación Clínica de Nanoro, en Burkina Faso, entra desde un lugar en el que, hasta su llegada en 2007, no había electricidad. Este año, gracias a su labor en los ensayos clínicos, la vacuna R21 contra la malaria fue recomendada por la Organización Mundial de la Salud. Es la segunda vacuna contra esta enfermedad, que causa medio millón de muertes al año en África, en gran parte niños de menos de cinco años. El instituto que dirige Tinto ha sido clave como lugar de pruebas para estas vacunas, y el investigador está trabajando en más de 30 ensayos clínicos contra enfermedades que afectan sobre todo a países pobres.

Luchadoras medioambientales

Nature celebra el regreso de Marina Silva al Gobierno de Brasil. La ministra de Medio Ambiente y Cambio Climático de Brasil anunció en agosto de este año un descenso del 43% en las alertas por deforestación en la selva amazónica respecto al año anterior. Durante los años de presidencia de Jair Bolsonaro, señala la revista, “el Gobierno puso un 40% menos de multas por crímenes medioambientales y las talas en el Amazonas se incrementaron en alrededor del 60%.

La segunda protagonista medioambiental es Eleni Myrivili, la primera jefa de Calor de la ONU. Después de años concienciando sobre los efectos del calentamiento en la vida de los ciudadanos como concejal en Atenas, ahora ha pasado a desarrollar esa labor a nivel global. También busca financiación para hacer las ciudades más sostenibles y resistentes al aumento de las temperaturas. En la cumbre del clima de Dubai ha buscado el apoyo a tecnologías de enfriamiento que no produzcan emisiones con efecto invernadero.

Avance contra el cáncer de vejiga

El progreso contra algunos tumores no ha seguido la tendencia positiva general de la lucha contra el cáncer. Este año, Thomas Powles, del Hospital de San Bartolomé, en Londres, vio unos resultados que le parecían increíbles. Una combinación de dos fármacos, una especie de caballos de Troya que incluye un fármaco dirigido que lleva al lugar deseado una carga de quimioterapia, logró aumentar la supervivencia media de pacientes con cáncer de vejiga de los 16 meses a los dos años y medio. Powles, otro de los científicos del año para Nature, afirma que este hito es el mayor para cáncer de vejiga avanzado en las últimas cuatro décadas y el único capaz de mejorar el tratamiento estándar que se emplea desde los años 80.

Embridar la energía del Sol

Una de las esperanzas para lograr energía abundante y sin demasiados efectos nocivos sobre el medio ambiente es controlar la fusión nuclear, el fenómeno que ilumina el Sol. El verano pasado, científicos de EE UU, en una instalación de láseres de 3.500 millones de dólares en el Laboratorio Nacional Lawrence Livermore de California, lograron comprimir núcleos de hidrógeno para convertirlos en núcleos de helio y producir más energía de la necesaria para producir esa fusión. Annie Kritcher, ingeniera de la Instalación Nacional de Ignición tuvo un papel claveen este logro al crear la cápsula que permite atrapar los átomos sobre los que dirigir el rayo láser para iniciar la reacción nuclear. Kritcher cree que será posible incrementar la energía producida hasta los niveles necesarios para crear el primer prototipo de reactor de fusión nuclear por láser.

Enmendar la plana a ‘Nature’ por la superconductividad

La ciencia, cuando se aplica como es debido, tiene la capacidad de corregir los propios errores. Es lo que se destaca en el caso de James Hamlin, físico de la Universidad de Florida en Gainesville, que detectó problemas en artículos científicos que decían haber encontrado un superconductor de electricidad a temperatura ambiente. Estos artículos, que ya están retractados, los había firmado el físico Ranga Dias, que hablaba, cuando fue incluido en la lista de diez científicos destacados de Nature, en 2020, de un “santo grial” que podría cambiar el mundo tal y como lo conocemos”. Este material permitiría diseñar motores y redes de transporte ultraeficientes sin pérdidas de energía, pero parece que el sueño tendrá que esperar.

Un premio por llegar cuartos

Cuando Chandrayaan-3 aterrizó con éxito en la Luna, India se convirtió en el cuarto país, por detrás de EE UU, la Unión Soviética y China en alcanzar ese logro. Kalpana Kalahasti, directora asociada del proyecto, desempeñó un papel protagonista en la misión. Entre otras cosas, su trabajo consistió en reorganizar el proyecto después de que Chandrayaan-2 acabase con la sonda estrellada sobre la Luna en 2019. Junto al director del proyecto, Palanivel Veeramuthuvel, redujeron la masa del módulo orbital para que el aterrizador pudiese tener más combustible y unas patas de aterrizaje más robustas. Construyendo sobre estos progresos, la India quiere poner a sus astronautas en la Luna en la década de 2040.

Puedes seguir a MATERIA en FacebookX e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.


martes, 2 de mayo de 2023

"Padrino" del Frankenstein advierte sobre la IA : desinformación, desempleo y una amenaza para la Humanidad

Publicado en El País
https://elpais.com/tecnologia/2023-05-02/geoffrey-hinton-el-padrino-de-la-ia-deja-google-y-avisa-de-los-peligros-de-esta-tecnologia.html




Geoffrey Hinton, el ‘padrino’ de la IA, deja Google y avisa de los peligros de esta tecnología

Este experto teme sobre todo que internet se vea inundada de falsos textos, fotos y vídeos, y que las nuevas herramientas remplacen a muchos trabajadores

El británico Geoffrey Hinton, uno de los grandes pioneros en el desarrollo de la inteligencia artificial (IA), ha dejado su trabajo en Google para poder advertir con mayor libertad de los peligros que plantean estas nuevas tecnologías, según aseguró en una entrevista publicada este lunes por The New York Times. A menudo llamado el padrino de la IA, Hinton aseguró que a sus 75 años lamenta ahora haber dedicado su carrera a este ámbito. “Me consuelo con la excusa normal: si no hubiese sido yo, otro lo habría hecho”, señaló al diario neoyorquino. La voz de alarma se suma a las advertencias que en los últimos meses han hecho otros expertos, sobre todo a raíz del lanzamiento de la inteligencia artificial generativa como el popular ChatGPT y las grandes apuestas que los gigantes tecnológicos están haciendo en este ámbito. Hinton era vicepresidente de Ingeniería en Google.

“Es difícil ver cómo se puede evitar que los malos actores lo usen para cosas malas”, dijo Hinton en la entrevista, en la que avisa sobre la excesiva velocidad a la que se están logrando avances. “Mire cómo era hace cinco años y cómo es ahora”, apuntó. “Tome la diferencia y propáguela hacia adelante. Eso asusta”, señaló Hinton, que el año pasado recibió el Premio Princesa de Asturias de Investigación Científica y Técnica junto a otros tres pioneros de la IA por su trabajo.

A corto plazo, este experto teme sobre todo que internet se vea inundada de falsos textos, fotos y vídeos, y que los ciudadanos no puedan ser capaces de distinguir lo que es real, pero también cree que estas tecnologías pueden reemplazar a muchos trabajadores y, más adelante, suponer incluso una amenaza para la humanidad. “Algunos creían en la idea de que estas cosas en realidad podrían volverse más inteligentes que las personas”, explicó. “Pero la mayoría de la gente pensaba que estaba muy lejos. Yo mismo pensaba que estaba muy lejos. Creía que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”, añadió.

En su opinión, se deberían frenar los trabajos en este ámbito hasta que se entienda bien si será posible controlar la IA, una idea en línea con otros llamamientos públicos de personalidades del sector tecnológico que han pedido suspender temporalmente los experimentos. Hace unas semanas se conocía que más de un millar de empresarios, intelectuales e investigadores de primer nivel relacionados con esta tecnología habían firmado una carta abierta en la que solicitan una moratoria en su desarrollo para recapacitar sobre sus consecuencias.

Más concretamente, estos expertos pedían una pausa de “al menos seis meses en el desarrollo y pruebas de sistemas de IA más poderosos que GPT4″, la última versión del gran modelo de lenguaje que usa ChatGPT. La carta advierte de que este último modelo ya es capaz de competir con los humanos en un creciente número de tareas, y que podría usarse para destruir empleo y difundir desinformación. Por ello, reclaman un desarrollo seguro y solo cuando estén seguros de que sus efectos serán positivos. “Desafortunadamente”, asegura la carta, “este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera sin control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”.

A través de Twitter, Hinton quiso puntualizar después que no deja Google para poder criticar a la empresa, sino para poder hablar de los peligros de la inteligencia artificial sin tener que preocuparse del impacto que esas opiniones causarían en la compañía en la que trabajaba, una empresa que según él “ha actuado de forma muy responsable”.

Geoffrey Hinton, profesor de la Universidad de Toronto (Canadá) y premio Fundación BBVA Fronteras del Conocimiento en 2017, desarrolló en 2004 los conceptos en los que se ha venido trabajando desde hace medio siglo y los ha orientado al aprendizaje mecánico y reconocimiento de elementos tan complejos como el habla o la imagen. Hinton creó una comunidad de investigación a la que se sumaron Yann LeCun, de la Universidad de New York, y Yoshua Bengio, de la de Montreal (Canadá). En 1986, Hinton inventó los algoritmos de retropropagación, fundamentales para el entrenamiento de redes neuronales. Con ellos, en 2012 consiguió crear una red neuronal convolucional llamada AlexNet, compuesta por 650.000 neuronas y entrenada con 1,2 millones de imágenes, que registró tan solo un 26% de errores en el reconocimiento de objetos y redujo a la mitad el porcentaje de sistemas anteriores. LeCun sumó una tecnología de reconocimiento óptico de caracteres.

“No me gustaban las primeras teorías de la inteligencia artificial (IA) porque se basaban mucho en la lógica y eso es algo que los humanos tardamos mucho en desarrollar”, explicó Hinton a EL PAÍS tras la concesión de su premio. El investigador explicó que estaba más interesado en conocer cómo funciona el cerebro humano, cuáles son los fundamentos del aprendizaje y en buscar la forma de aplicar esos principios a las máquinas. “El cerebro humano es la mejor máquina. Mi objetivo era comprender cómo trabaja la gente y simular ese sistema y creo que la mejor manera de hacerlo es construir modelos de redes neuronales artificiales”, explicó.

martes, 25 de abril de 2023

ALEMANIA se une a la lista de países contra ChatGPT

Publicado en Xataka
https://www.xataka.com/robotica-e-ia/sume-sigue-alemania-se-une-a-lista-paises-chatgpt-no-cumplir-proteccion-datos?utm_source=twitter&utm_medium=social&utm_campaign=botoneramobile_AMP



OpenAI tiene un problema en Europa: Alemania se une a la lista de países contra ChatGPT

ENRIQUE PÉREZ
@Lyzanor

OpenAI tiene un problema en Europa. Tras la decisión de Italia y España, ahora se une Alemania. El organismo regulador alemán ha decidido una investigación sobre OpenAI y ChatGPT, por una posible infracción del Reglamento General de Protección de Datos. Y el problema es que parece claro que OpenAI no está haciendo las cosas bien.

Alemania también quiere explicaciones. Ha sido Marit Hansen, comisaria del estado de Schleswig-Holstein, quien ha verbalizado la posición de Alemania: "queremos saber si se ha llevado a cabo una evaluación de impacto de la protección de datos y si los riesgos de protección de datos están bajo control".

De manera paralela, Hansen explica que Alemania ha pedido "información sobre cuestiones derivadas del Reglamento General Europeo de Protección de Datos" a OpenAI. Es decir, han solicitado respuesta ante múltiples cuestiones que siguen sin respuesta y que podrían ser indicio de una ilegalidad.

Sin bloqueo por el momento. Al contrario que en Italia, donde OpenAI decidió paralizar el servicio. En Alemania todavía sigue funcionando ChatGPT. Esta semana OpenAI ha recibido la notificación por parte de las autoridades alemanas y habrá que ver cuál es el paso que toma la compañía.

Se trata de un proceso equivalente al que tomó Francia, donde solicitó a OpenAI cinco peticiones.

Hasta el 11 de junio. Es la fecha marcada por Alemania. Hasta el 11 de junio, OpenAI tiene de margen para responder a las peticiones de la agencia alemana, donde ha solicitado que describa cómo se están utilizando los datos de los europeos y cómo pueden estos modificar sus datos en caso de que haya algún tipo de error.

Tenemos una fecha con más margen que en Italia, que ha dado hasta este 30 de abril. Si OpenAI responde, podrá volver a Italia. De lo contrario, quedará prohibida. Algo similar podría ocurrir en Alemania.

Ulrich Kelber, responsable de protección de datos de Alemania, ha explicado que un bloqueo a ChatHPT es muy posible.

Y falta la Unión Europea. Los distintos países están tomando la delantera a la hora de solicitar exigencias a OpenAI. No son los únicos, pues desde el 'European Data Protection Board' ya se está estudiando cuál es el paso a seguir.

Según explican distintos expertos a Xataka, lo más probable es que desde Europa se plantee otra fecha y múltiples exigencias, previsiblemente con varios niveles. Unos más urgentes de aplicación inmediata si quieren seguir funcionando y otros a aplicar con algo más de margen.

OpenAI tiene que mover ficha ya. Todas las miradas están puestas en OpenAI, de quienes se espera que hagan algún tipo de anuncio oficial próximamente. Se desconoce si llegará a tiempo al margen dado por Italia o si decidirán ver cuánto tiempo les permite la Unión Europea.

Lo que sí parece claro por la posición de las distintas agencias es que ChatGPT incumple el Reglamento General de Protección de Datos. En sus manos está remediarlo.

martes, 18 de abril de 2023

ChatGPT usa millones de textos que tienen copyright

Publicado en Xataka
https://www.xataka.com/robotica-e-ia/openai-ha-usado-millones-textos-para-entrenar-a-chatgpt-problema-que-muchos-ellos-tienen-copyright




OpenAI ha usado millones de textos para entrenar a ChatGPT. El problema es que muchos de ellos tienen copyright

14 Abril 2023
JAVIER PASTOR
@javipas


ChatGPT fue entrenado con una enorme cantidad de datos obtenidos de internet. No solo sitios web, sino artículos, libros, publicaciones en redes sociales o estudios académicos. El modelo de IA conversacional creado por OpenIA no tenía en cuenta la procedencia de los datos: solo veía el texto y aprendía patrones y relaciones entre palabras, frases o párrafos. ¿El problema? Que la inmensa mayoría de esos textos probablemente está protegidos por copyright. ¿Violan OpenAI y ChatGPT los derechos de autor?

¿Hubo copia de contenidos durante el entrenamiento? No hay información sobre si durante el proceso de entrenamiento, los textos usados por ChatGPT se copiaron o solo se referenciaron. Al preguntar a ChatGPT la respuesta es singular:

Durante el proceso de entrenamiento, se utiliza texto de diversas fuentes para entrenar el modelo ChatGPT. Es probable que el texto se copiara en una base de datos interna de OpenAI con el fin de entrenar el modelo. Sin embargo, el texto de entrenamiento se suele preprocesar para eliminar cualquier información sensible, como identificadores personales, texto protegido por derechos de autor, etc. Además, el texto también se utiliza para entrenar el modelo y no se almacena en una base de datos. El modelo utiliza el texto para aprender patrones y la estructura del lenguaje y, una vez terminado el entrenamiento, ya no necesita el texto.

A pesar de lo que indica ChatGPT, no es probable que se eliminara texto protegido por derechos de autor, ya que la mayor parte de su conjunto de entrenamiento es este tipo de contenido, como se puede comprobar al tratar de que ChatGPT imite cierto estilo o 

¿Es la salida de ChatGPT una obra derivada? Según la Ley de Propiedad Intelectual, la obra derivada puede ser una modificación, adaptación o transformación de una obra existente, donde se garantizan los derechos de autor de la obra originaria. Los expertos indican que todo el texto generado por ChatGPT podría considerarse como una obra derivada.

Uso justo. Otro de los conceptos que se manejan en este ámbito es si OpenAI hace un uso justo o legítimo (fair use). Aun suponiendo que durante el proceso de entrenamiento de ChatGPT se copió texto y que lo generado es una obra derivada de ese texto protegido por el copyright, ¿se podría considerar que ChatGPT hace un uso legítimo de esos contenidos? Teniendo en cuenta que este modelo mezcla contenidos de todo tipo de obras, parece que no hay aquí un uso injustificado. Podría haber, eso sí, escenarios en los que se pueden infringir los derechos de autor si por ejemplo le pidiéramos a un motor basado en ChatGPT que nos escribiese la próxima novela de Harry Potter como si fuera J. K. Rowling. En ese caso, si además el fin es comercial, podría haber violación de esos términos legales.

Ya ha habido demandas. La amenaza de demandas legales es evidente para OpenAIdesde que lanzaron este tipo de productos. De hecho la empresa ha sido demandada junto a Microsoft y GitHub por violar la ley del copyright en GitHub Copilot, y también lo fueron posteriormente Stable Diffusion y Midjourney. Tanto Copilot como esas plataformas fueron entrenadas con copias no autorizadas de código o imágenes.

Ni siquiera atribuyen. Según OpenAI, el sistema en el que se basa GitHub Copilot es Codex, que "fue entrenado con decenas de millones de repositorios públicos", incluyendo código del propio GitHub. El problema, como indican en OnMSFT, es que los repos que se utilizaron suelen usar una licencia que requiere atribución cuando se usa el código de esos repositorios. Según Microsoft este es un uso justo del código, pero para programadores como Matthew Butterick está "borrando tu comunidad Open-Source".

Y mucho menos pagar. Hay otro problema aquí, y es que por ejemplo algunos medios de comunicación como The Wall Street Journal o la CNN han exigido que ya que ChatGPT hace uso de sus contenidos como parte de su entrenamiento, OpenAI debe licenciar los derechos para hacerlo adecuadamente. O lo que es lo msmo, pagar.

Bing con ChatGPT al menos da referencias. El problema de Copilot afecta desde luego a Stable Diffusion, Midjourney o DALL-E 2 en el ámbito de las imágenes, y por eso se han impulsado también demandas como lade Getty. Entre las soluciones está la atribución, y aquí tenemos un buen ejemplo en Bing con ChatGPT, que cuando contesta a nuestras preguntas a menudo ofrece referencias de las fuentes en las que se basa, algo que ChatGPT no hace.

Antes fue el copyright, ahora la privacidad. A ChatGPT le están creciendo los enanos, sobre todo porque además de los potenciales problemas por esa forma indiscriminada de entrenar sus modelos, ahora se enfrenta a problemas por sus políticas de privacidad. En concreto, por la forma en la que recolecta datos de los usuarios y si eso puede estar violando el RGPD. Italia ya ha prohibido el uso de ChatGPT por esa razón —aunque ya ha explicado cómo puede levantar la prohibición—, y España y Europa están investigando precisamente si seguir ese ejemplo.


lunes, 13 de marzo de 2023

ChatGPT vs Google: ¿El fin de la barra de búsqueda?

Publicado en Letras Libres
https://letraslibres.com/ciencia-y-tecnologia/future-tense-futuro-barra-busqueda-chatgpt/



¿El fin de la barra de búsqueda?

Industrias enteras dependen de la manera en que Google gestiona las búsquedas y la publicidad en línea. Chatbots como Chat GPT podrían cambiar eso, y alterar de paso el modo en que estructuramos el conocimiento humano.


Por Ed Finn
10 marzo 2023

Como buen niño de los 80, puedo dividir claramente mi vida en Antes de Google y Después de Google. Con el inicio del milenio, internet dejó de ser una maraña de listas incompletas de cosas extrañas para convertirse en una muy útil base de datos de investigación. Desde entonces, buscar en Google ha sido una de las únicas constantes tecnológicas de mi vida adulta, que ha persistido a pesar del auge de los teléfonos inteligentes, las redes sociales, los servicios de streaming, e incluso la entrega de burritos con drones (por cierto, ¿qué pasó con eso?).

En todo este tiempo, nadie ha sido capaz de desafiar el papel de Google como guardián de la abundancia digital. Más de 90% de los usuarios de internet de todo el mundo utilizan Google para comprar, navegar y satisfacer su curiosidad sobre prácticamente todo. Los anuncios que Google a partir de esta actividad (y en otros sitios web) han alimentado una máquina de dinero que generó más de un cuarto de billón de dólares en ventas el año pasado.

Google empezó como una especie de creador de mapas de internet, pero gracias a su éxito se convirtió gradualmente en el arquitecto de la World Wide Web. Hoy, industrias enteras, desde el comercio minorista hasta los seguros de automóvil, dependen de la manera en que Google gestiona los resultados de las búsquedas y la publicidad en línea. La frontera electrónica se hizo cada vez más corporativa, organizada de acuerdo con la tiranía del clic: ¿cuántos usuarios hacen clic en tu anuncio, en tu titular, en tu video? Esa cifra determina cuánto dinero se puede ganar en internet (y explica la alucinante cantidad de artículos escritos con el propósito específico de aparecer cuando tecleas, por ejemplo, “¿A qué hora empiezan los Oscares?”)

La economía basada en los clics ha hecho que el mundo sea más eficiente en algunos aspectos, pero ha convertido esta milagrosa base de datos de información global en una frenética subasta en la que todos los sitios web buscan subir a lo más alto en los resultados de búsqueda, conseguir el mayor número de clics y retener el mayor número de ojos. Cada página web que cargas es un poco más lenta gracias a las subastas para determinar qué anuncios se verán. Un sinfín de periodistas profesionales libraron batallas perdidas contra las mezquinas métricas de clics y porcentajes de descarga de páginas, y luego se adaptaron a ellas, convirtiendo la “optimización de motores de búsqueda” en una de las habilidades periodísticas más preciadas. YouTube y las redes sociales persiguen los clics con tal empeño que, sin darse cuenta, crean algoritmos que enganchan a los usuarios con contenidos cada vez más lascivos y radicales. Google ha construido un internet en el que ganan los que más clics hacen, y Google desempeña un papel clave en el recuento de esos clics.

¿Y si todo esto cambia?

La llegada de ChatGPT de OpenAI a finales de 2022 hizo temblar las salas de juntas de las grandes empresas de tecnología. Microsoft, rival de Google, no tardó en utilizar su participación en OpenAI para crear una versión beta de algo nuevo: un agente conectado a Bing, el motor de búsqueda de Microsoft, que puede conversar. Google conectó su propio chatbot de nueva generación, Bard, a su principal producto de búsqueda. Estamos en los primeros tiempos de todo eso, y se nota: la nueva y parlanchina Bing de Microsoft hace poco asustó a un periodista del New York Times con su megalomanía y sus insinuaciones amorosas. Bard, por su parte, cometió un error fáctico en su demo de lanzamiento, haciendo que las acciones de la empresa matriz Alphabet cayeran en picada.

La rapidez con la que Google ha introducido una herramienta de inteligencia artificial a medio cocer en su mayor fuente de ingresos, a pesar de la amenaza que Bard podría representar para el modelo de negocio, indica la seriedad con la que nuestro guardián de toda la información del mundo se está tomando el momento. (Tras la publicación de este artículo, un portavoz de Google se puso en contacto para aclarar que la empresa no tiene intención de sustituir Search por Bard y que Bard, como chat, es distinta de otras grandes herramientas de inteligencia artificial basadas en modelos lingüísticos que se presentaron al mismo tiempo, incluida una que funciona con Search para extraer información de toda la web. El portavoz dijo que Bard no estaba “cambiando la dirección” de Search y reiteró que ninguna de las dos herramientas se ha lanzado públicamente).

¿Qué podría significar sustituir la economía del clic y su piedra angular, la barra de búsqueda, por algo parecido a una conversación? Esto es lo que ofrecen Bard y  Bing con ChatGPT: la posibilidad de hacer preguntas más humanas (¿cuál es el mejor sitio para comer un burrito por aquí y qué drones recomendarías para transportarlo?), y mantener conversaciones con un sistema que retiene el contexto. (Aunque cabe destacar que, en un intento por frenar algunos de los comportamientos más precipitados de su chatbot, Microsoft limitó recientemente a los usuarios a hacer cinco preguntas por sesión). En lugar de ofrecerte un menú de enlaces (y anuncios), tu interlocutor/mayordomo informativo va al grano, quizás ofreciendo algunas notas a pie de página para que sigas leyendo. Si se lo pides, hasta te ofrecerá sus respuestas con voz de pirata o en rimas.

Antes de que apareciera Google Search y devorara la industria del acceso a la información digital, este tipo de síntesis era lo que todo el mundo pensaba que sería nuestro futuro digital. Los primeros visionarios, como Vannevar Bush, previeron el océano de información en el que nadamos e imaginaron sistemas que nos permitirían seguir a “pioneros” y sintetizadores. Los escritores de ciencia ficción de los años 80 y 90 imaginaron obras de inteligencia artificial que actuaban como bibliotecarios (y a veces se les llamaba así), como el educado subsistema de Snow Crash, del autor Neal Stephenson, capaz de resumir libros, correlacionar información y mantener largas conversaciones con humanos. DARPA, el ala de investigación del ejército estadounidense, invirtió millones en un proyecto llamado Personal Assistant that Learns-PAL (Asistente Personal que Aprende) para construir algo similar en la vida real para los mandos militares. Con el tiempo, esa investigación dio lugar a Siri y, con ella, al sueño de una computadora con la que se pudiera hablar de verdad.

Una interfaz basada en conversación supondría un cambio radical respecto a la forma en que hemos aprendido a trabajar en sistemas basados en palabras clave, como Google. Cuando tengo una pregunta complicada que hacer en internet, a menudo tengo que hacer cierto tipo de esfuerzo en mi consulta, tratando de imaginar posibles escenarios en los que alguien podría haberla respondido y que podrían ser muy diferentes de mi contexto. La lista de resultados de búsqueda que aparece, con enlaces patrocinados en la parte superior, me ofrece opciones sobre qué pista seguir o a qué autoridad creer. Todo internauta aprende rápidamente a evaluar la credibilidad y utilidad de un enlace en función de su URL y de cómo aparece en la búsqueda de Google.

Sustituir esa consulta por una conversación representa una transformación a lo que Google lleva tiempo llamando la “búsqueda del conocimiento” de sus usuarios. La clásica barra de búsqueda se esfuerza por ser omnipresente, esencial y casi invisible. Pero estos nuevos chatbots no se apartan del camino. Se adelantan, dan la mano, presentan personalidad y afecto en sus interacciones con los usuarios. Ofrecen síntesis, extrapolación y refinamiento repetido, mediante preguntas de seguimiento y diálogo. Ofrecen la ilusión de un criterio.

En lugar de una lista de posibles fuentes, tenemos una sola voz. Cuando los usuarios interactúan con Bing (R.I.P. Sydney) o Bard, los sitios subyacentes se esconden como notas a pie de página o se ocultan por completo. No muestran sus cálculos. Es tentador para todos los que alguna vez hemos murmurado con frustración “dime ya la respuesta” cuando la búsqueda de Google no da resultados. Pero también es preocupante. Dejando a un lado problemas bien documentados que tienen estos sistemas, como equivocarse, inventar cosas y asustar a la gente, la ilusión de una respuesta única y coherente puede ser peligrosa cuando la naturaleza de la verdad es complicada y controvertida.

La diferencia entre una pregunta y una consulta a una base de datos tiene enormes implicaciones para la forma en que nos relacionamos con el extenso universo del conocimiento humano y entre nosotros mismos. Una lista de resultados de búsqueda, por muy elaborada y manipulada que esté, sigue recordándonos que puede haber respuestas contradictorias a nuestra pregunta. Una interfaz conversacional con una inteligencia artificial encantadora y simplista oculta toda esa confusión. Estos sistemas podrían convertirse en otra capa de ofuscación entre nosotros y la fuente del conocimiento humano. Otra caja negra, pero que habla, cuenta chistes y puede escribir un soneto si se lo ordenan. Irónicamente, OpenAI está intentando resolver el persistente problema de que estos sistemas “alucinen” con información falsa enseñándoles a validar sus resultados mediante un motor de búsqueda.

Pero va a ser mucho más difícil vender clics desde un bot. ¿Qué ocurrirá con la economía del clic si una inteligencia artificial se convierte en un extraño mutante de un portavoz y una bola mágica, o algo así como un avatar de la suma total del conocimiento humano? Recursos ricos en información, como periódicos y foros de debate, podrían encontrarse con que estos sistemas recojan su material y lo reformulen de forma tan elocuente que nadie se moleste en navegar hasta la página original. Parece una invitación para deslizarse aún más en el sospechoso camino en el que los creadores de contenidos dependen de los gigantes tecnológicos para que les ofrezcan una parte de los ingresos, sin que haya forma de verificar sus cifras de manera independiente.

La cuestión de cuál podría ser el modelo de negocio para estos nuevos guardianes, y más aún para los proveedores repentinamente invisibles de esa información a través de internet, nos lleva a una cuestión más profunda: estamos hablando de poner a un nuevo arquitecto a cargo de Internet.

Los motores de búsqueda se basan en los hipervínculos, esas conexiones explícitas entre palabras y páginas que son legibles y programables por los humanos. Desde los albores de la enciclopedia moderna, se podría argumentar que toda la estructura del conocimiento humano empírico se construye a partir de las piezas clave de las notas a pie de página y las referencias cruzadas.

Esto contrasta con grandes modelos lingüísticos como ChatGPT: sistemas de aprendizaje automático que, por su diseño, identifican relaciones complejas entre palabras y frasesm basándose en probabilidades, lo que lleva a que algunas personas los llamen “loros estocásticos“. Ningún ser humano, ni siquiera los ingenieros que los construyeron, puede entender cómo funcionan esas asociaciones entre miles o millones de variables ni, lo que es más importante, por qué hacen determinadas asociaciones. Y eso dificulta mucho la corrección de errores o la prevención de daños sin recurrir a filtros y censuras torpes. Pasar de los vínculos a las relaciones probabilísticas es como pasar de la física newtoniana a la rareza cuántica, o de la verdad a algo que solo suena verdadero. ¿Cómo lo sabes? Porque te lo dijo el chatbot. ~



Este artículo es publicado gracias a una colaboración de Letras Libres con Future Tense, un proyecto de Slate, New America, y Arizona State University.

Plan 2.0 para el acceso abierto: ¿un plan o una nueva ambigüedad?

Publicado en THE Times Higher Education https://www.timeshighereducation.com/news/plan-s-20-open-access-plan-bold-may-prove-ineffective   El...