jueves, 20 de abril de 2023

Sobre el "Negacionismo bibliométrico"

 Negacionismo bibliométrico

Daniel Torres-Salinas
https://orcid.org/0000-0001-8790-3314
Universidad de Granada
torressalinas@go.ugr.es

 

En las conversaciones informales que suelo mantener con nuestros colegas,
hace ya tiempo que vengo hablando de un nuevo negacionismo que, si bien
ha existido siempre, ahora se ha acentuado. Nos referimos al
negacionismo bibliométrico, una nueva corriente que podemos sumar a la
del cambio climático, la del covid, las vacunas o las corrientes terraplanistas.
Como es sabido, el "denialism", en su terminología anglosajona, se basa en
la negación intencionada de un corpus de evidencias empíricas (Hansson, 2017).

Las características del negacionismo están bien establecidas y, entre otras,
se señala un rechazo dogmático hacia los resultados científicos, la selección
a conveniencia de datos y, sobre todo, la formación de expectativas imposibles sobre lo que la ciencia realmente puede proporcionar (Lucena, 2022).
En la actualidad, existen diversas opiniones que presentan algunos de estos
rasgos ya que niegan con rotundidad la utilidad de los indicadores bibliométricos,
desaconsejando sin ambages su uso en los procesos de evaluación científica.

Las pruebas sobre la existencia de un negacionismo métrico, hablando
solo del caso español, son indiscutibles y afectan a gran parte de las convocatorias.
Pero pongamos un par de ejemplos ilustrativos. En la última convocatoria para
la evaluación de proyectos de generación de conocimiento 2022, en
las instrucciones que recibimos los evaluadores por correo electrónico,
nos indicaron que "debe tenerse en cuenta en el proceso de evaluación que
la AEI ha firmado la Declaración DORA por la que se compromete a que
las evaluaciones se realicen de manera cualitativa, sin utilizar índices bibliométricos
 como parámetros principales para la evaluación
". Otro caso análogo se
encuentra en la elaboración del Curriculum Vitae Abreviado (CVA).
Hasta la convocatoria de 2020, se mantenía en el CVA un apartado de
"Indicadores generales de calidad de la producción científica" donde se
podían incluir, por ejemplo, el número de tramos de investigación y,
por supuesto, aquellos indicadores bibliométricos (citas, índice H, etc.)
que el investigador considerase pertinentes, siempre que se indicara
la base de datos de origen (1). Sin embargo, esto se eliminó en el año 2021
y se prohibieron esas menciones a indicadores y fuentes. En la zona del
resumen del CV, nos daban la razón de esta eliminación:
"se ha modificado el contenido de este apartado para progresar en la
adecuación a los principios DORA
" (2).

Está claro que la decisión de prescindir de las métricas no ha sido
repentina y responde a la asimilación de los enunciados de DORA recogidos
en la Declaración de San Francisco (3). Muchas instituciones españolas,
por cierto, suscriben la declaración para después no hacerle de caso:
si hay que firmar se firma. Creemos que en la aplicación española de la
doctrina dórica se ha tomado la parte por el todo. Nos referimos a que
DORA se centra en un ataque frontal y justificado contra el Factor de Impacto
y el uso de indicadores de revistas aplicados a evaluar trabajos y científicos.
A pesar de esto, en la Declaración no se indica inequívocamente que
no se deban emplear otros indicadores como el índice H, las métricas sociales
o las métricas a nivel de artículo. Da la impresión de que la crítica al Factor de
 Impacto se ha extendido al resto de métricas, poniendo en tela de juicio
gran parte de los indicadores y técnicas bibliométricas.
Esto representa una interpretación exigente y maximalista de
la ideología evaluativa de DORA que ha tenido su continuidad en el
"Agreement on Reforming Research Assessment" promovido por COARA (4),
al que hace unos días ANECA anunció su adscripción (5)

Tanto COARA como DORA se basan en principios innegables para
cualquier profesional de la bibliometría, como, por ejemplo,
no considerar únicamente las publicaciones en revistas, evaluar
el impacto social o promover un sistema más inclusivo. Sin embargo,
también se sustentan en un rechazo de las métricas y en una negación
de su utilidad, ya que el nuevo sistema apuesta decididamente y
de forma unilateral por la revisión por pares. En este sentido, ANECA
es clara y precisa en la nota mencionada, comprometiéndose
a avanzar hacia modelos de evaluación cualitativos basados
en la revisión por pares, lo que es una transcripción literal de lo que aparece
en el Agreement: “Assessment should rely on qualitative judgement”.
En ningún lugar del documento de COARA se mencionan explícitamente
las palabras bibliometría, informetría o cienciometría.
Quizás las han borrado por entender que "indicadores cuantitativos"
es una denominación menos ofensiva y parecen plantear su uso en casos extremos,
de manera responsable y tomando múltiples precauciones. Es preferible
que los evaluadores trabajen a ciegas, sin datos, antes que manchar sus juicios
con indicadores viles.

Dos cosas me sorprenden de esto. Por un lado, debería ser molesto
para los bibliométras no llamar a las cosas por su nombre. Sorprende demasiado
no solo la negación, sino también la apropiación y ausencia de reconocimiento
de los métodos de la Bibliometría Evaluativa (BE), que ya he explicado
en otro Thinkepi (Torres-Salinas, 2022). En resumen, en BE,
los indicadores se proponen como una herramienta de apoyo en
los procesos de revisión por pares en lugar de como un sustituto
de dichos procesos, tal como se señala en esta cita:
 “los indicadores informétricos son una herramienta de apoyo en los procesos de revisión por pares, en lugar de como un sustituto de dichos procesos
(Moed, 2007). ¿No les parece similar? Es evidente que COARA
toma demasiadas ideas de la Bibliometría/Informetría Evaluativa sin mencionarla
en ningún momento, como si ya no fuera bienvenida, como si fuera víctima
de una nueva cultura de cancelación métrica. Había dicho que había dos cosas
 que me sorprendían, y la segunda es la idealización del
Peer Review por parte de COARA. Cabe preguntarse si están bien informados
en la coalición de expertos sobre las limitaciones del Peer Review y
si han leído la cantidad de evidencias científicas que muestran los problemas
que conlleva la evaluación por expertos. ¿O también van a negarlos?

Al igual que se apuntan a los límites de la Bibliometría, habría que
señalar también los límites del Peer Review. Dejando de lado los
posibles problemas de subjetividad, discrepancia en las evaluaciones,
imparcialidad, etc., lo que me preocupa es si se han pensado en las
implicaciones más prácticas que conlleva la aplicación sistemática del
Peer Review, como, por ejemplo, el costo del sistema,
el crecimiento de la burocracia, la problemática en la resolución d
e arbitrariedades, la falta manifiesta de expertos en algunos temas y la ausencia,
 de momento, de soluciones evaluativas tangibles y universales a corto plazo.
En la era del Big Data y las decisiones informadas por datos, parece
que se promueve en nuestro sector lo contrario y, justamente,
cuando más métodos e indicadores bibliométricos tenemos
a nuestra disposición. Cuando más consciencia tenemos
de atender a las singularidades y al impacto social de la investigación,
más parece que nos agazapamos en la trinchera unilateral de los expertos.
En definitiva, no había necesidad de negar el corpus científico de la
Bibliometría Evaluativa. Si se hubiera pensado entre todos, seguro que
se podría haber encontrado una forma inteligente de combinar los indicadores
y el Peer Review.

 

Referencias

Hansson, S. O. (2017). Science denial as a form of pseudoscience. Studies in History and Philosophy of Science Part A63, 39-47. https://doi.org/10.1016/j.shpsa.2017.05.002

Lucena, A. D. (2022, enero 20). Negacionismo, anticiencia y pseudociencias: ¿en qué se diferencian? The Conversation. http://theconversation.com/negacionismo-anticiencia-y-pseudociencias-en-que-se-diferencian-174831

Moed, H. F. (2007). The future of research evaluation rests with an intelligent combination of advanced metrics and transparent peer review. Science and Public Policy34(8), 575-583. https://doi.org/10.3152/030234207X255179

Torres-Salinas, D. (2022). 1985: Cinco lecciones inmortales de Moed para bibliómetras profesionales. Anuario ThinkEPI16(1), 3.


Notas

(1) https://www.aei.gob.es/convocatorias/buscador-convocatorias/proyectos-idi-2020-modalidades-retos-investigacion-2

(2)  https://www.aei.gob.es/convocatorias/buscador-convocatorias/proyectos-generacion-conocimiento-2021/convocatoria

(3)   https://sfdora.org/read/read-the-declaration-espanol/

(4)   https://coara.eu/agreement/the-agreement-full-text/

(5)  https://www.aneca.es/web/guest/-/aneca-se-adhiere-a-la-san-francisco-declaration-on-research-assessment-dora-y-a-la-coalition-for-advancing-research-assessment-coara- 


BIBLAT define "Núcleo central" bibliométrico para las revistas indizadas

 BIBLAT, portal bibliométrico de los índices de revistas latinoamericanas y del Caribe CLASE y PERIÓDICA, definió un conjunto de revistas "Núcleo central", basándose en su cobertura y actualización.


Las revistas incluidas en dicho Núcleo Central contarán con indicadores actualizados de
internacionalización de las autorías y coautorías de sus artículos.

***********************

Consulte el Núcleo Central de revistas BIBLAT en: https://biblat.unam.mx/es/nucleorevistas



Núcleo Central de Revistas BIBLAT



El Núcleo central de revistas es la colección de revistas actualizadas en BIBLAT
durante los últimos 5 años (2018 a 2022). Se considera que una revista está actualizada
si en el rango de cinco años cuenta con acervo en el portal BIBLAT.

Las revistas incluidas en el Núcleo central BIBLAT tienen acceso a los
indicadores bibliométricos de internacionalización de la autoría y coautoría generados
por BIBLAT.





¿Qué información puedo encontrar en el Núcleo Central?



Países incluidos en el Núcleo


Descubra qué países han editado las revistas del Núcleo


BIBLAT nucleo central 2.png


Inclusión en SciELO, CLASE y PERIÓDICA


Las revistas del Núcleo también están indizadas en SciELO y en las bases de datos CLASE y PERIÓDICA


BIBLAT nucleo central 3.png




Disciplinas


Una variedad de disciplinas forman parte de el Núcleo


BIBLAT nucleo central 4.png


miércoles, 19 de abril de 2023

LIBRO: Ciencia abierta en América Latina [ UNESCO - CILAC ]

 DESCARGA LA PUBLICACIÓN en:  http://forocilac.org/wp-content/uploads/2022/03/PolicyPapers-CienciaAbierta-ES-v2.pdf  




Clarivate (dueña de WoS y ProQuest) cambia de liderazgo y se espera que remonte su rezago

Publicado en The Scholarly Kitchen
https://scholarlykitchen.sspnet.org/2023/04/19/clarivate-leadership-products/



¿Se centrará la nueva dirección de Clarivate en sus productos?

Por ROGER C. SCHONFELDAPR 19, 2023

La historia de Clarivate en los últimos cinco años ha sido la historia de dos empresas. Por un lado, ha reforzado sustancialmente su oferta de productos mediante una serie de importantes adquisiciones. En el ámbito de la enseñanza superior, ha reforzado su oferta con la adquisición de ProQuest y su importante cartera de plataformas y productos para la biblioteca académica. Pero, por otro lado, Clarivate ha sido una historia continua de inestabilidad en el liderazgo. Clarivate fue sacada a bolsa por Jerre Stead, y bajo su liderazgo se centró en las grandes adquisiciones y el posicionamiento financiero, más que en la estrategia de producto. Su ruptura con Annette Thomas sirvió para algunos como ilustración perfecta de su desconexión con la comunidad. Ahora, sin embargo, nos dirigimos hacia un nuevo capítulo. Andy Snyder, que dirigió el crecimiento de ProQuest antes de venderla a Clarivate, preside el consejo de Clarivate. El relativamente nuevo director general, Jonathan Gear, parece haber diagnosticado algunos de los retos de la empresa, en particular que el camino hacia el éxito financiero sostenible a largo plazo pasa por el liderazgo del producto, y la empresa parece dispuesta a invertir para abordarlos. Hoy, en un movimiento que afectará directamente al sector de la publicación académica y la educación superior, Clarivate ha anunciado que ha nombrado a Bar Veinstein, un viejo conocido de Ex Libris, presidente de Academic & Government (A&G).

Conocí a Veinstein cuando era presidente de Ex Libris, después de que fuera adquirida por ProQuest, antes de que ProQuest fuera adquirida por Clarivate. En aquella época, estaba dando luz verde a nuevas iniciativas de software empresarial (por ejemplo, el desarrollo del servicio de gestión de información de investigación Esploro y la adquisición de RapidILL) que aprovechaban el liderazgo de Alma en el mercado de plataformas de sistemas bibliotecarios.

En la actualidad, el negocio Clarivate A&G del que Veinstein es responsable incluye no sólo Ex Libris, sino también otros dos importantes conjuntos de propiedades, los negocios de contenidos de ProQuest y los negocios empresariales de investigación de Web of Science. Por último, tras el infructuoso intento de Stead de combinar los negocios de propiedad intelectual, ciencias de la vida y A&G, en gran medida no relacionados entre sí, bajo un único "director de producto", existe una estructura de liderazgo clara para A&G.  La tarea que Veinstein tiene ante sí es clara: racionalizar la unidad de A&G e impulsar la innovación de productos.

No será un esfuerzo menor. En cierto sentido, la lógica de la estrategia de producto de la adquisición de ProQuest no es difícil de articular. Hay dos productos principales, Web of Science (incluido JIF, el Factor de Impacto de las Revistas) y Alma, cada uno de los cuales tiene una cuota de mercado dominante. Debería ser posible desarrollar y comercializar diversos productos adyacentes sobre la base de estos dos. Lamentablemente, aunque muchos de los productos existentes siguen funcionando bien, Clarivate aún no ha cumplido esta promesa.

De hecho, apenas se ha mantenido al día. Clarivate lleva mucho tiempo aprovechándose de su negocio en Web of Science (según muchos informes, desde antes incluso de que existiera Clarivate). Sin duda, este último año Web of Science ha introducido nuevos índices, por ejemplo para preprints, está modernizando sus clasificaciones y ha desarrollado nuevas capacidades para vigilar los registros académicos. Pero, como producto, el CEO Gear lo califica acertadamente de "polvoriento", una situación provocada por la falta de inversión y, por tanto, un "gol en propia meta". El panorama está plagado de competidores, tanto comerciales como de otro tipo.  

En cierto modo, sin embargo, la falta de inversión en Alma puede resultar un riesgo aún más grave. A finales de 2019, Alma se había asegurado la posición dominante en el sector académico, un liderazgo que era particularmente dominante entre las bibliotecas de investigación más grandes (y más lucrativas). Pero, una vez conseguido esto, ha ido a la deriva. Ni ha innovado lo suficiente para afianzar su posición frente a los competidores que le pisan los talones, ni ha introducido una versión reducida de menor precio para expandirse a otros segmentos del mercado. En otoño, la Biblioteca del Congreso anunció que adoptaría el sistema FOLIO respaldado por EBSCO y contribuiría a su pila de código abierto para garantizar que pueda satisfacer las necesidades de la mayor biblioteca de investigación del mundo. En las últimas semanas, hemos visto varios anuncios sobre bibliotecas académicas que abandonan Alma y se pasan a FOLIO, entre ellas las 26 universidades públicas de Georgia. En uno de esos anuncios, un decano de bibliotecas mencionaba que "Este traslado supondrá un ahorro significativo". Podemos esperar que Alma siga perdiendo terreno frente a FOLIO en un futuro previsible.

Para ser justos, puede haber innovación de producto en Clarivate que, debido al calendario, aún no se ha anunciado. Lo que está claro es que Veinstein y su equipo tendrán que acelerar el ritmo no sólo de la innovación en la producción, sino también de la innovación en el mercado.

En cuanto a las adquisiciones, Clarivate se ha mantenido en gran medida congelada, quizá como consecuencia del desplome del precio de sus acciones hace casi dos años. Se le escapó Interfolio, el mayor activo que había salido al mercado, que Elsevier se hizo con él. Aunque Gear ha prometido invertir para competir, no está claro si Clarivate aportará el capital necesario para competir con Elsevier (y también con algunos advenedizos) en el sector A&G en los próximos años.

En el otro lado de la balanza, Clarivate aún no se ha deshecho de ningún activo tras la adquisición de ProQuest, donde es evidente que la estrategia de producto debe replantearse en medio de un mercado en evolución. Por ejemplo, el negocio de los servicios editoriales ha cambiado radicalmente en los últimos años: Elsevier y Wiley han creado carteras impresionantes junto con el crecimiento orgánico de empresas independientes como SilverChair y Morressier. ¿Veremos una estrategia para construir sobre ScholarOne o tendrá más sentido que cambie de manos?

Por último, está la cuestión del talento. No es infrecuente que se produzca cierta rotación de personal durante una adquisición, pero la adquisición de ProQuest por Clarivate fue notable por la marcha de líderes clave. En ese período, un enorme grupo de cerebros de liderazgo ejecutivo, estratégico y de producto se marchó, incluyendo muchas de las mentes líderes detrás de Ex Libris - Veinstein incluido. Aunque parece improbable que Snyder y Veinstein "vuelvan a reunir a la banda", merecerá la pena seguir sus progresos en la recapitalización del talento, especialmente en apoyo de la innovación de productos orientada a las soluciones. Al mismo tiempo, será importante no perder más talento del necesario en este momento de transición.

Snyder y Gear parecen haber diagnosticado el problema y están tratando de resolverlo mediante la reestructuración y la instalación de un nuevo liderazgo en Veinstein. El tiempo dirá si son capaces de posicionar los negocios de A&G para la innovación y el crecimiento en un mercado complejo y en rápida evolución.



***************************

Will New Clarivate Leadership Yield a Renewed Focus on Its Products?
The story of Clarivate over the past five years has been a tale of two companies. On the one hand, it has substantially strengthened its product offerings through a set of major acquisitions. For higher education, it strengthened its holdings through the acquisition of ProQuest and its important portfolio of platforms and products for the academic library. But on the other hand, Clarivate has been a continuing story of leadership instability. Clarivate was taken public by Jerre Stead, and under his leadership focused on major acquisitions and financial positioning, rather than product strategy. His rupture with Annette Thomas served for some as a perfect illustration of his disconnect with the community. Now, though, we are heading into a new chapter. Andy Snyder, who led ProQuest’s growth before selling it to Clarivate, serves as Clarivate board chair. Relatively new CEO Jonathan Gear seems to have diagnosed some of the company’s challenges, particularly that the road to long-term sustainable financial success runs through product leadership, and the company appears prepared to invest to address them. Today, in a move that will affect the scholarly publishing and higher education sector directly, Clarivate has announced that it has installed Bar Veinstein, an old Ex Libris hand, as president for Academic & Government (A&G).

I got to know Veinstein when he was president of Ex Libris — after it was acquired by ProQuest, before ProQuest was acquired by Clarivate. At that time, he was green-lighting new enterprise software initiatives (for example, the development of the Esploro research information management service and the acquisition of RapidILL) that leveraged Alma’s commanding lead in the library systems platform market.

Today, the Clarivate A&G business for which Veinstein takes responsibility includes not only Ex Libris but also two other important sets of properties, the ProQuest content businesses and the Web of Science research enterprise businesses. Finally — after Stead’s unsuccessful effort to combine the largely unrelated intellectual property, life sciences, and A&G businesses under a single “chief product officer” — there is a clear leadership structure for A&G. The task before Veinstein today is clear: rationalize the A&G unit and drive product innovation.

This will be no small effort. The product strategy logic of the ProQuest acquisition is in one sense not hard to articulate. There are two premier products, Web of Science (including JIF, the Journal Impact Factor) and Alma, each of which holds a commanding market share. It should be possible to develop and market a variety of adjacent products on the foundation that these two provide. Sad to say that, while many existing products continue to perform well, Clarivate has yet to deliver on this promise.

Indeed, it has barely kept up. Clarivate has been coasting on its Web of Science businesses for a long time (by many reports, since before there even was a Clarivate). To be sure, just this past year, Web of Science has introduced new indices, for example for preprints, is modernizing its rankings, and has developed new capabilities to police the scholarly record. But, as a product, CEO Gear rightly describes it as “dusty,” a situation brought on by a lack of investment and therefore an “own goal.” The landscape is rife with competitors, both commercial and otherwise.  

In some ways, though, the lack of investment in Alma may prove to be an even more serious risk. By late 2019, Alma had secured the dominant position in the academic sector, a lead that was particularly commanding among the largest (and most lucrative) research libraries. But, having done so, it has been coasting. It has neither innovated sufficiently to secure its position against competitors nipping at its heels nor has it introduced a stripped-down lower-priced version to expand into other parts of the market. In the fall, the Library of Congress announced it would adopt the EBSCO-supported FOLIO system and contribute to its open source stack to ensure it can meet the needs of the largest research library in the world. In recent weeks, we have seen several announcements about academic libraries moving away from Alma and to FOLIO, including the 26 Georgia public universities. In one such announcement, a dean of libraries mentioned that “This move will result in significant savings.” We can expect to see Alma continue to lose ground to FOLIO for the foreseeable future.

To be fair, there may be product innovation at Clarivate that due to timing has yet to be announced. What is clear, is that Veinstein and team will need to accelerate the pace not only of production innovation but also of moving innovation to market.

In terms of acquisitions, Clarivate has been largely frozen, perhaps a consequence of the collapse of its stock price almost two years ago. It missed out on Interfolio, the biggest asset to come to market, which Elsevier snapped up. While Gear has promised to invest to compete, it is unclear whether Clarivate will bring to bear the capital necessary to compete with Elsevier (and some upstarts as well) in the A&G sector in the years to come.

On the other side of the ledger, Clarivate has yet to dispose of any assets following the ProQuest acquisition, where the product strategy clearly needs to be rethought amid an evolving marketplace. For example, the publisher services businesses have changed dramatically in recent years, with Elsevier and Wiley having built up impressive portfolios alongside the organic growth of independent players like SilverChair and Morressier. Will we see a strategy to build upon ScholarOne or will it make more sense for it to change hands?

Finally, there is a question of talent. It is not uncommon to have some turnover during an acquisition, but the Clarivate acquisition of ProQuest was notable for the departure of key leaders. In that period, an enormous braintrust of executive, strategic, and product leadership departed, including many of the leading minds behind Ex Libris — Veinstein included. While it seems unlikely that Snyder and Veinstein will “get the band back together,” it will be worth following their progress on talent recapitalization particularly in support of solutions-minded product innovation. At the same time, it will be important not to lose any more talent than necessary in this moment of transition.

Snyder and Gear appear to have diagnosed the problem and are moving towards addressing it by restructuring and installing new leadership in Veinstein. Time will tell if they can position the A&G businesses for innovation and growth in a complex and fast-changing marketplace.



martes, 18 de abril de 2023

USA: ¿Qué hay detrás de la prohibición de TikTok y la Ley Restrict? : frenar la competencia y controlar la información

Publicado en La Jornada
https://www.jornada.com.mx/2023/04/13/opinion/015a2pol


A las puertas de la Ley Patriota 2.0

Rosa Miriam Elizalde

Todos vigilados en nombre de la seguridad. Quieren que regrese la Ley Patriota ( Patriot Act ), ahora para el control de la aldea digital, y como suele ocurrir cuando Estados Unidos se prepara para la guerra, hay todo tipo de distracciones y se apunta a un adversario evanescente, casi metafísico. En los últimos días ese enemigo es TikTok y da la impresión de que la plataforma, con sus 150 millones de usuarios estadunidenses, tiene los días contados.

Mientras se discute hasta el aburrimiento la suerte de TikTok en Estados Unidos, un plan siniestro tiene impulso bipartidista y apoyo en la Casa Blanca, y avanza con escasa atención de la prensa: la Ley de restricción de la aparición de amenazas de seguridad que ponen en riesgo la tecnología de la información y las comunicaciones o la ley Restrict, por sus siglas en inglés.

El proyecto legislativo, presentado en marzo por el senador demócrata Mark Warner (Virginia) y el senador republicano John Thune (Dakota del Sur), no menciona a TikTok en sus 55 páginas. Sin embargo, aprovecha el fantasma del espionaje chino para naturalizar la vigilancia digital a niveles sin precedente y otorgar a un panel ejecutivo designado un poder enorme para censurar Internet.

El texto propone dar facultades al Departamento de Comercio para penalizar a estadunidenses y extranjeros que usen plataformas y servicios digitales de entidades ligadas con los actuales enemigos favoritos de Washington: China, Rusia, Irán, Norcorea, Venezuela y Cuba (¡no faltaría más!). Violar esta ley supondría sanciones de hasta 250 mil dólares o el doble del valor de la transacción que sirvió de base a la orden [...], y sanciones penales de hasta un millón de dólares y 20 años de prisión.

La filosofía de este proyecto de ley invierte de hecho la pirámide de la información secreta: los servicios de inteligencia no arrancarían sus investigaciones a partir de un blanco sospechoso, sino de una masa de metadatos. En otras palabras, todo el mundo sería espiado hasta que apareciera el sospechoso.

El texto contiene ambigüedades irritantes y resbaladizas que pueden hacer de cualquier inocente un culpable en potencia, y justificaría el rastreo de todo artefacto usado por estadunidenses o extranjeros que almacenen datos en línea: aplicaciones de escritorio, móviles, de juegos, basadas en web, software, hardware, redes inalámbricas de área local, redes móviles, pagos por satélite y más de una docena de otros dispositivos, según el proyecto de ley.

Esto significa que los burócratas del gobierno tendrían amplia autoridad para acusar a cualquiera de riesgo para la seguridad nacional y restringir el acceso a las plataformas que deseen (incluidos procesadores de pago para criptomonedas y bitcóin), además de recopilar información sin pasar la formalidad de una solicitud bajo la Ley de Libertad de Información ( Freedom of Information Act, FOIA), gracias a una breve cláusula escondida en la letra pequeña del proyecto. En otras palabras, pocos controles judiciales y mucha vigilancia.

Warner y otros patrocinadores han dicho que TikTok sería el primer objetivo si el proyecto se convirtiera en ley, pero obviamente ahí no terminaría la cacería. La legislación intenta golpear a la competencia de las multinacionales de EU –estas últimas ni se mencionan, a pesar de que controlan 80 por ciento de los datos de los usuarios de Internet en el planeta y sus prácticas monopólicas son escandalosas. Arrasaría con derechos fundamentales de los estadunidenses, como ocurrió en 2001 con la Ley Patriota, que dio carta blanca al Ejecutivo y a sus agencias para registrar los historiales médicos, las declaraciones de impuestos, las transacciones financieras, o para ejecutar el seguimiento de ciudadanos sin advertirles, en nombre de la guerra contra el terrorismo.

Quedó por escrito en el famoso memorando que redactó John Yoo, entonces asesor jurídico del ministro de Justicia, John Ashcroft, que era perfectamente legal detener a sospechosos de terrorismo, retenerlos y torturarlos o hacerlos desaparecer por la CIA en cualquier parte del mundo. Como comandante en jefe, el presidente podía usar los métodos y medios para confrontar al enemigo que considerara apropiados, desestimando el derecho nacional e internacional que prohibía la tortura y las ejecuciones extrajudiciales. En eso llegaron Julian Assange y Edward Snowden, a quienes la denuncia del terrorismo en la guerra contra el terrorismo les ha costado carísimo –al primero más que al segundo–, pero siguen siendo un grito de advertencia contra la impunidad del poder sustentado en las tecnologías del control y la vigilancia.

La guerra contra el terrorismo, en su versión 2.0, es el estado policial digital, advirtió Assange hace casi una década. “ Ley Patriota con esteroides”, proclama ahora el periodista Rae Hodge, de Salon.com. Tal como van las cosas, termine o no en ley el proyecto Restrict, sabemos que Washington busca desesperadamente poner el último clavo en el ataúd de la ciberutopía, el sueño de que Internet favorece más a los oprimidos que a los opresores.


ChatGPT usa millones de textos que tienen copyright

Publicado en Xataka
https://www.xataka.com/robotica-e-ia/openai-ha-usado-millones-textos-para-entrenar-a-chatgpt-problema-que-muchos-ellos-tienen-copyright




OpenAI ha usado millones de textos para entrenar a ChatGPT. El problema es que muchos de ellos tienen copyright

14 Abril 2023
JAVIER PASTOR
@javipas


ChatGPT fue entrenado con una enorme cantidad de datos obtenidos de internet. No solo sitios web, sino artículos, libros, publicaciones en redes sociales o estudios académicos. El modelo de IA conversacional creado por OpenIA no tenía en cuenta la procedencia de los datos: solo veía el texto y aprendía patrones y relaciones entre palabras, frases o párrafos. ¿El problema? Que la inmensa mayoría de esos textos probablemente está protegidos por copyright. ¿Violan OpenAI y ChatGPT los derechos de autor?

¿Hubo copia de contenidos durante el entrenamiento? No hay información sobre si durante el proceso de entrenamiento, los textos usados por ChatGPT se copiaron o solo se referenciaron. Al preguntar a ChatGPT la respuesta es singular:

Durante el proceso de entrenamiento, se utiliza texto de diversas fuentes para entrenar el modelo ChatGPT. Es probable que el texto se copiara en una base de datos interna de OpenAI con el fin de entrenar el modelo. Sin embargo, el texto de entrenamiento se suele preprocesar para eliminar cualquier información sensible, como identificadores personales, texto protegido por derechos de autor, etc. Además, el texto también se utiliza para entrenar el modelo y no se almacena en una base de datos. El modelo utiliza el texto para aprender patrones y la estructura del lenguaje y, una vez terminado el entrenamiento, ya no necesita el texto.

A pesar de lo que indica ChatGPT, no es probable que se eliminara texto protegido por derechos de autor, ya que la mayor parte de su conjunto de entrenamiento es este tipo de contenido, como se puede comprobar al tratar de que ChatGPT imite cierto estilo o 

¿Es la salida de ChatGPT una obra derivada? Según la Ley de Propiedad Intelectual, la obra derivada puede ser una modificación, adaptación o transformación de una obra existente, donde se garantizan los derechos de autor de la obra originaria. Los expertos indican que todo el texto generado por ChatGPT podría considerarse como una obra derivada.

Uso justo. Otro de los conceptos que se manejan en este ámbito es si OpenAI hace un uso justo o legítimo (fair use). Aun suponiendo que durante el proceso de entrenamiento de ChatGPT se copió texto y que lo generado es una obra derivada de ese texto protegido por el copyright, ¿se podría considerar que ChatGPT hace un uso legítimo de esos contenidos? Teniendo en cuenta que este modelo mezcla contenidos de todo tipo de obras, parece que no hay aquí un uso injustificado. Podría haber, eso sí, escenarios en los que se pueden infringir los derechos de autor si por ejemplo le pidiéramos a un motor basado en ChatGPT que nos escribiese la próxima novela de Harry Potter como si fuera J. K. Rowling. En ese caso, si además el fin es comercial, podría haber violación de esos términos legales.

Ya ha habido demandas. La amenaza de demandas legales es evidente para OpenAIdesde que lanzaron este tipo de productos. De hecho la empresa ha sido demandada junto a Microsoft y GitHub por violar la ley del copyright en GitHub Copilot, y también lo fueron posteriormente Stable Diffusion y Midjourney. Tanto Copilot como esas plataformas fueron entrenadas con copias no autorizadas de código o imágenes.

Ni siquiera atribuyen. Según OpenAI, el sistema en el que se basa GitHub Copilot es Codex, que "fue entrenado con decenas de millones de repositorios públicos", incluyendo código del propio GitHub. El problema, como indican en OnMSFT, es que los repos que se utilizaron suelen usar una licencia que requiere atribución cuando se usa el código de esos repositorios. Según Microsoft este es un uso justo del código, pero para programadores como Matthew Butterick está "borrando tu comunidad Open-Source".

Y mucho menos pagar. Hay otro problema aquí, y es que por ejemplo algunos medios de comunicación como The Wall Street Journal o la CNN han exigido que ya que ChatGPT hace uso de sus contenidos como parte de su entrenamiento, OpenAI debe licenciar los derechos para hacerlo adecuadamente. O lo que es lo msmo, pagar.

Bing con ChatGPT al menos da referencias. El problema de Copilot afecta desde luego a Stable Diffusion, Midjourney o DALL-E 2 en el ámbito de las imágenes, y por eso se han impulsado también demandas como lade Getty. Entre las soluciones está la atribución, y aquí tenemos un buen ejemplo en Bing con ChatGPT, que cuando contesta a nuestras preguntas a menudo ofrece referencias de las fuentes en las que se basa, algo que ChatGPT no hace.

Antes fue el copyright, ahora la privacidad. A ChatGPT le están creciendo los enanos, sobre todo porque además de los potenciales problemas por esa forma indiscriminada de entrenar sus modelos, ahora se enfrenta a problemas por sus políticas de privacidad. En concreto, por la forma en la que recolecta datos de los usuarios y si eso puede estar violando el RGPD. Italia ya ha prohibido el uso de ChatGPT por esa razón —aunque ya ha explicado cómo puede levantar la prohibición—, y España y Europa están investigando precisamente si seguir ese ejemplo.


"¡Quemadlo con fuego!" - El uso de ChatGPT «polariza» a los revisores

Publicado en THE Times Higher Education https://www.timeshighereducation.com/news/corrupting-chatgpt-use-polarises-peer-reviewers   Quemadlo...