Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas
Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas

viernes, 9 de mayo de 2025

8 objeciones bibliotecarias para la adopción de la IA en la recuperación de información (RAG)

Publicado en The Scholarly Kitchen
https://scholarlykitchen.sspnet.org/2025/05/08/guest-post-eight-hypotheses-why-librarians-dont-like-retrieval-augmented-generation-rag/?informz=1&nbd=567d61ec-36ea-4197-85eb-43e2bd36d175&nbd_source=informz



Artículo invitado:  Ocho hipótesis por las que a los bibliotecarios no les gusta la Generación Aumentada de Recuperación (RAG)

Por Frauke Birkhoff

8 de mayo de 2025



Nota del editor: El artículo de hoy está escrito por Frauke Birkhoff. Frauke es bibliotecaria temática en la Biblioteca Universitaria y Estatal de Düsseldorf, Alemania, y trabaja en los servicios de búsqueda de información de la biblioteca. El artículo refleja su experiencia personal y sus opiniones.


Hace doce años, la bibliotecaria alemana Anne Christensen presentó ocho hipótesis por las que a los bibliotecarios no les gustan las capas de descubrimiento. Hoy en día, se está produciendo otro cambio de paradigma en la búsqueda, y podemos y debemos aprender de nuestros debates anteriores sobre la evolución de la tecnología de búsqueda. Las bibliotecas tienen una larga historia de tener que reimaginarse a sí mismas y a sus servicios frente a los avances tecnológicos. Con la llegada de la búsqueda por inteligencia artificial (IA) y el uso de la generación de recuperación aumentada (RAG) en la mayoría de los motores de búsqueda disponibles comercialmente en este momento, debemos iniciar la conversación sobre cómo estas herramientas pueden y deben utilizarse en las interfaces de búsqueda de las bibliotecas. Un enfoque holístico de este proceso también incluye debatir por qué podríamos sentir cierta incomodidad con su introducción.


A partir de 2022, con el lanzamiento de ChatGPT y otras herramientas de IA que rápidamente incorporaron la RAG a su pila tecnológica, el comportamiento de búsqueda de los usuarios ha experimentado un rápido cambio. Poder formular una consulta de búsqueda en lenguaje natural y obtener a cambio una respuesta que parezca definitiva con las citas correspondientes parece confirmar lo que décadas de estudios sobre el comportamiento de búsqueda de los usuarios han constatado: Los usuarios dan prioridad a las respuestas rápidas y cómodas, idealmente fiables pero, en caso necesario, simplemente de apoyo a sus argumentos. Las barreras de acceso, como los muros de pago, siguen siendo una gran frustración.


También han aparecido herramientas ajenas al mundo de las bibliotecas, como perplexity.ai, Elicit y muchas otras, que amenazan de nuevo con hacer que las interfaces de búsqueda de las bibliotecas sean menos relevantes para nuestros usuarios. Y luego están las soluciones comerciales ofrecidas por los proveedores de bibliotecas, como Primo Research Assistant, que prometen a las bibliotecas la capacidad de evolucionar sus capas de descubrimiento existentes para satisfacer la demanda de los usuarios. Está claro que la respuesta para hacer más atractiva la búsqueda en 2025 parece estar en combinar algoritmos de recuperación de información con un gran modelo lingüístico (LLM) y una base de datos externa. Este enfoque promete menos alucinaciones que la consulta de un chatbot que no sea de RAG; sin embargo, dista mucho de estar libre de problemas de garantía de calidad o de sesgo, como ha demostrado una reciente evaluación de la IA de Scopus.


Hay motivos para creer que, en los próximos años, las capas de descubrimiento tal y como las conocemos podrían verse desplazadas por interfaces de búsqueda basadas en RAG. Los bibliotecarios que actualmente trabajan con capas de descubrimiento deberían familiarizarse con estas herramientas y preguntarse a sí mismos y a sus instituciones cómo deberían implementarlas para sus comunidades, ya sea utilizando una herramienta disponible comercialmente o invirtiendo en el desarrollo de una versión de código abierto. Sin embargo, para el éxito de estos esfuerzos es crucial la aceptación de los bibliotecarios que implementan, mantienen y utilizan estas herramientas.


Echemos un vistazo a la percepción de las herramientas de búsqueda por parte de los bibliotecarios, tal y como la describió Christensen en 2013, y veamos qué podemos aprender del pasado y las lecciones para los bibliotecarios a medida que la búsqueda basada en IA pasa a un primer plano.


1. Es demasiado trabajo.


En su forma actual, Discovery sigue dando mucho trabajo, sobre todo en lo que se refiere al mantenimiento y a garantizar que la entrega funcione. Si bien los resolvedores de enlaces de nueva generación facilitan en cierta medida el acceso de los usuarios al texto completo, los ecosistemas de las bibliotecas todavía no han cambiado tanto y se dedica una cantidad considerable de tiempo y trabajo a mantener y solucionar los problemas de acceso.


¿Qué ocurre con los asistentes de búsqueda inteligentes? Los proveedores de bibliotecas los comercializan como una solución «plug and play», similar a los sistemas de localización. Sin embargo, el aspecto de la entrega, es decir, el enlace al artículo de texto completo al que se hace referencia en la respuesta generada, es tan complejo como lo ha sido en el pasado. Y aparecen nuevos problemas. Los proveedores de contenidos están empezando a aislar sus colecciones para impedir que otras herramientas basadas en RAG accedan a sus contenidos. 


Un ejemplo: en el caso de Primo Research Assistant, las colecciones de APA (y otras como Elsevier y JSTOR) están excluidas de la generación de resultados. Esto tendría que explicarse a los estudiantes y profesores que utilicen la herramienta, lo que aumenta considerablemente el tiempo y la energía dedicados a la comunicación necesaria para que estas herramientas merezcan la pena por su coste de licencia. Es razonable suponer que casi todos los proveedores de contenidos invertirán en sus propios asistentes de IA o llegarán a acuerdos de licencia con los existentes. ¿Cuántos de ellos podemos y debemos licenciar y mantener? Los bibliotecarios que trabajan en capas de descubrimiento deben empezar a hacer planes ahora para identificar las herramientas que mejor sirven a su comunidad y cómo deben cambiar sus flujos de trabajo.


2. En primer lugar, no fueron idea nuestra. 


RAG fue desarrollado por investigadores del equipo de Investigación de Inteligencia Artificial de Facebook y otros científicos. Las capas de descubrimiento se inspiraron en la búsqueda web y nos las vendieron por primera vez los proveedores de bibliotecas, aunque la comunidad se animó rápidamente y desarrolló magníficas soluciones de código abierto como VuFind y K10plus-Zentral.


Los responsables de las bibliotecas deberían empezar a trabajar en la identificación de estrategias para educar a sus empleados en IA y RAG ahora mismo, si no lo han hecho ya, asegurándose de que estos esfuerzos se centran en capacitar a los bibliotecarios para comprender, evaluar y enseñar herramientas de búsqueda de IA con todos sus pros y contras. Esto significa que no podemos confiar únicamente en la educación por parte de los proveedores de bibliotecas. Ningún asistente de IA disponible en el mercado debería autorizarse sin la participación de los bibliotecarios necesarios para su mantenimiento y de aquellos que enseñan a los estudiantes a utilizarlo.


3. y 4. A nuestros metadatos les ocurren cosas extrañas y comunicarlas es difícil.


La transparencia es un valor fundamental al que se adhieren muchos bibliotecarios. Muchos de nosotros también estamos a favor de la explicabilidad, especialmente cuando se trata de los sistemas que se supone que debemos solucionar para nuestros usuarios. Cuando se introdujeron los niveles de descubrimiento, muchos bibliotecarios se opusieron al hecho de que los algoritmos de clasificación por relevancia hicieran más difícil explicar a los usuarios cómo se clasificaban y presentaban los resultados de la búsqueda.


Por ahora, la búsqueda asistida por IA rara vez es transparente o fácil de explicar. Lo que necesitamos, por tanto, es el valor y las habilidades necesarias para participar en el desarrollo de herramientas que intenten resolver estos problemas. Sin embargo, Christensen identificó aquí un problema importante que aún no se ha resuelto: Los bibliotecarios y los informáticos tienen dificultades para comunicarse sobre las herramientas bibliotecarias. Estas barreras no pueden superarse mediante la integración de cursos de TI en los programas de grado o posgrado de bibliotecarios, ya que el tiempo es demasiado corto para convertirnos en expertos durante el tiempo que se tarda en completar el grado medio de MLIS. Por otra parte, la contratación de expertos en TI en las bibliotecas es casi imposible aquí en Alemania y en otros lugares de Europa o EE.UU., debido a la escasa remuneración. Las universidades alemanas ofrecen dos titulaciones de postgrado en Bibliotheksinformatik que, por lo general, se centran en combinar amplios cursos de informática con cursos de biblioteconomía. Aunque es demasiado pronto para saber si estas titulaciones pueden tener un impacto duradero en nuestro problema de comunicación, son una posible solución.


5. Alteran el concepto de catálogo.


El concepto de catálogo se va al garete cuando se implanta la búsqueda por IA, ya que se centra en ofrecer respuestas a los usuarios, no una visión general de las existencias. La mayoría de las bibliotecas revisaron por completo su interfaz de búsqueda cuando implementaron una capa de descubrimiento e integraron tanto las colecciones de la biblioteca como el índice de descubrimiento en un único sistema. ¿Debería argumentarse entonces que, con el cambio en el comportamiento de búsqueda, deberíamos adoptar plenamente la RAG y dejar de lado el concepto de una herramienta que detalla la totalidad de la colección de una biblioteca?


No, no es así. La entrega y el acceso a la información de la que se nutren las herramientas de búsqueda basadas en la RAG aún no están resueltos y no lo estarán pronto. Los problemas de calidad y los sesgos, así como los problemas de alucinaciones, no están resueltos del todo. Seguimos necesitando herramientas que nos den una visión completa de los fondos de una biblioteca y deben ser de acceso público. Nuestro trabajo consiste en asegurarnos de que el actual revuelo en torno a la búsqueda por IA no nos lleve a abandonar soluciones probadas y auténticas para nuestros usuarios. Ambas herramientas tienen su utilidad. De nosotros depende identificarlos y aplicar el enfoque adecuado para cada uno.


6. y 7. Son difíciles de utilizar en las entrevistas de referencia y hacen que los usuarios sean tontos y perezosos.


Las entrevistas de referencia, tal y como las conocíamos, apenas serán relevantes en 2025. Sin embargo, no debemos subestimar un gran inconveniente de los asistentes de búsqueda de IA: El dilema de la respuesta directa. Descrito por primera vez por Potthast et al. en 2020, se describe como «la elección del usuario entre comodidad y diligencia al utilizar un sistema de recuperación de información».


Los asistentes de búsqueda de IA fuerzan esta disyuntiva en sus usuarios por defecto: ¿Debe un usuario aceptar la respuesta generada y seguir adelante rápidamente, partiendo del supuesto de que es correcta, o debe invertir una cantidad considerable de tiempo y esfuerzo en asegurarse de que la respuesta que ha generado la herramienta es correcta? Con lo acelerado que es el mundo académico y lo cómodas que resultan estas herramientas, tenemos que preguntarnos por el impacto que tienen las herramientas que ofrecemos en la calidad de la investigación. 


Además, la mayoría de los asistentes de inteligencia artificial nos dan poca información sobre cómo se eligen los documentos para generar la respuesta a una consulta de búsqueda o cómo se genera la respuesta. Los bibliotecarios debemos asegurarnos de que los usuarios de nuestros sistemas tengan claro este dilema. Deberíamos utilizar nuestros esfuerzos de alfabetización informacional para presentar este dilema a estudiantes y profesores y trabajar en el desarrollo de estrategias de mitigación. Pero debemos ser muy claros sobre la eficacia de estas intervenciones. Estas herramientas son a la vez inherentemente cómodas y propensas al fracaso, lo que no es óptimo en la investigación académica. Necesitamos un debate a fondo en el mundo académico sobre cómo mitigar estos inconvenientes.


8. Nos cuestan nuestros puestos de trabajo.


Aunque dudo que la búsqueda por IA vaya a costar el puesto de trabajo a los bibliotecarios ahora mismo, se vislumbra un menor número de puestos de trabajo disponibles en las bibliotecas. O, en un tono más positivo, tal vez no estemos haciendo las preguntas correctas. ¿Qué habilidades laborales se necesitan para proporcionar herramientas de búsqueda de IA de alta calidad y aprobadas por los bibliotecarios? ¿Cómo será en el futuro la jornada laboral de un bibliotecario de sistemas o un bibliotecario temático que desarrolle o utilice herramientas de búsqueda de IA?


Christensen tenía razón cuando escribió que necesitábamos hablar más sobre la incomodidad de los bibliotecarios con las capas de descubrimiento para que tuvieran éxito. Deberíamos empezar a hablar de ello cuando se trata de la búsqueda de IA ahora, incluso antes de que muchas bibliotecas hayan implementado realmente estas herramientas. Podríamos empezar desarrollando directrices y listas de comprobación que ayuden a las bibliotecas a decidir si deben invertir en una herramienta disponible comercialmente. Deberíamos coordinar el desarrollo de una versión de código abierto de la interfaz de búsqueda de IA para bibliotecas. Y por último, pero no por ello menos importante, deberíamos dotar a los bibliotecarios docentes de las herramientas necesarias para trasladar a estudiantes y profesores las ventajas e inconvenientes de estas herramientas.



//////////////////////////////

Guest Post:  Eight Hypotheses Why Librarians Don’t Like Retrieval Augmented Generation (RAG)



Editor’s Note: Today’s post is by Frauke Birkhoff. Frauke is a subject librarian at University and State Library in Düsseldorf, Germany, working on the library’s information discovery services. The article reflects her personal experience and opinions.

Twelve years ago, German librarian Anne Christensen presented eight hypotheses why librarians don’t like discovery layers. Today, another paradigm shift in search is happening, and we can and should learn from our previous discussions about the evolution of search technology. Libraries have a long history of having to reimagine themselves and their services in the face of technological advancement. With the advent of artificial intelligence (AI) search and the use of retrieval-augmented generation (RAG) in most commercially available search engines right now, we must start the conversation on how these tools can and should be used in library search interfaces. A holistic approach to this process also includes discussing why we might feel some discomfort with their introduction.  

Starting in 2022 with the release of ChatGPT and other AI tools that quickly added RAG to their tech stack, user search behavior has undergone a rapid shift. Being able to state a search query in natural language and get in return a definitive-seeming answer with the citations to match seems to be confirmation of what decades of user studies in search behavior have found: Users prioritize quick, convenient answers, ideally reliable but, if necessary, merely supportive of their argument. Access barriers, such as paywalls, remain a major frustration.

In came tools from outside library-land such as perplexity.ai, Elicit and many others that threaten to yet again make library search interfaces less relevant for our users. And then there are the commercial solutions offered by library vendors such as Primo Research Assistant that promise libraries the ability to evolve their existing discovery layers to satisfy user demand. Clearly, the answer to making search more attractive in 2025 seems to lie in combining information retrieval algorithms with a large language model (LLM) and an outside database. This approach promises fewer hallucinations than querying a non-RAG-chatbot, however, it is still far from free of quality assurance or bias issues, as a recent evaluation of Scopus AI has demonstrated. 

There is reason to believe that in the next few years, discovery layers as we know them could be displaced by RAG-based search interfaces. Librarians currently working on discovery layers should get acquainted with these tools and ask themselves and their institutions how they should implement them for their communities, be it by using a commercially available tool or by investing in the development of an open-source version. Crucial to the success of these efforts, however, is the acceptance of the librarians implementing, maintaining and using these tools.

Let’s look at the perception of discovery tools by librarians, as described by Christensen in 2013, and see what we can learn from the past and the lessons for librarians as AI-enabled search comes to the fore.  

1. They are too much work.

Discovery in its current form is still a lot of work, especially when it comes to maintenance and making sure that the delivery side works. While next-gen link resolvers make it somewhat easier to provide full-text access to users, library ecosystems still haven’t changed that much and a considerable amount of time and work goes into maintaining and fixing access issues.

What about AI search assistants? Library vendors market them as a plug-and-play solution, similarly to discovery systems. However, the delivery-side of things, i.e., the link to the full-text article referenced in the generated answer, is just as complex as it has been in the past. And new issues appear. Content providers are starting to silo their collections in order to restrict other RAG-based tools from accessing their content.

An example: in the case of Primo Research Assistant, collections from APA (and others such as Elsevier and JSTOR) are excluded from result generation. This would need to be explained to students and faculty using the tool, which adds considerably to the time and energy put into the communication needed to make these tools worth their licensing cost. It can reasonably be assumed that almost all content providers are going to invest in their own AI assistants or make licensing deals with existing ones. How many of these can and should we license and maintain? Librarians working on discovery layers should start making plans now for identifying the tools that best serve their community and how their workflows need to change.

2. They were not our idea in the first place. 

RAG was developed by researchers of the Facebook AI Research team and other scientists. Discovery layers were inspired by web search and first sold to us by library vendors, although the community quickly came around and developed great open-source solutions like VuFind and K10plus-Zentral.

Library leaders should start working on identifying strategies to educate their employees on AI and RAG right now, if they haven’t already, making sure that these efforts are focused on enabling librarians to understand, evaluate and teach AI search tools with all their pros and cons. This means we can’t solely rely on education by library vendors. No commercially available AI assistant should be licensed without buy-in from the librarians needed to maintain it and those who teach students how to use it.  

3. and 4. Strange things happen to our metadata and communicating these strange happenings is hard.

Transparency is a core value that many librarians subscribe to. Many of us also favor explainability, especially when it comes to the systems we are supposed to troubleshoot for our users. When discovery layers were introduced, many librarians took issue with the fact that relevance-ranking-algorithms made it harder to explain to users how search results are ranked and presented.

AI-assisted search is, as of now, rarely transparent or easily explainable. What we need, then, is the courage and skillset to play a part in the development of tools that try and solve these issues. Yet, Christensen identified a major issue here that has not been resolved yet: Librarians and IT people have a hard time communicating about library tools. These barriers cannot be overcome by integrating IT courses into librarian undergraduate or graduate programs, since time is simply too short to make experts out of us during the time it takes to complete the average MLIS degree. On the other hand, recruiting IT experts into libraries is nigh impossible here in Germany and elsewhere in Europe or the US, due to very limited pay. German universities offer two graduate degrees in Bibliotheksinformatik which generally put their focus on combining extensive computer science courses with library science coursework. While it’s too early to tell if these degrees may have a lasting impact on our communication issue, they are one possible solution. 

5. They mess with the concept of the catalog.

The concept of the catalog goes out the window when implementing AI search, since it focuses on providing users with answers, not holdings overviews. Most libraries completely overhauled their search interface when they implemented a discovery layer and integrated both library collections and the discovery index into one system. Should the argument be made then that, with the change in search behavior, we should fully embrace RAG and let go of the concept of a tool that details the whole of a library’s collection?

No, we shouldn’t. Delivery and access to the information that RAG-based search tools pull upon are still not resolved and won’t be resolved anytime soon. Quality issues and bias, as well as issues with hallucinations are not resolved entirely. We still need tools that give us a complete overview of a library’s holdings and they should be made publicly accessible. It is our job to make sure that the current hype around AI search does not lead to us abandoning tried and true solutions for our users. Both tools have their use cases. It is on us to identify them and implement the right approach for each. 

6. and 7. They are hard to use in reference interviews and they make users dumb and lazy.

Reference interviews as we knew them are hardly relevant in 2025. However, we should not underestimate one major drawback of AI search assistants: The dilemma of the direct answer. First described by Potthast et al. in 2020, it is described as “a user’s choice between convenience and diligence when using an information retrieval system.”

AI search assistants force this trade-off onto their users by default: Should a user accept the answer generated and quickly move on, working from the assumption that it is correct, or should that user invest considerable amounts of time and effort into making sure that the answer the tool has generated is correct? With how fast-paced academia is and how convenient these tools feel, we need to ask about the impact the tools we offer have on research quality.  

Also, most AI assistants give us little insight into how documents are chosen to generate the answer to a search query or how the answer is generated. We as librarians should make sure that this trade-off is something we make clear to the users of our systems. We should use our information literacy efforts to present students and faculty with this dilemma and work on developing mitigation strategies. But we should be clear-eyed about the efficacy of these interventions. These tools are both inherently convenient and failure-prone, which is not optimal in academic research. We need a thorough discussion in academia on how to mitigate these drawbacks. 

8. They cost us our jobs.

While I doubt that AI search will cost librarians their jobs right now, fewer available jobs in libraries are on the horizon. Or, on a more positive note, maybe we aren’t asking the right questions. What job skills are needed to provide high-quality, librarian-approved AI search tools? What does the future workday of a systems librarian or a subject librarian look like when she is developing or using AI search tools?

Christensen was right when she wrote that we needed to talk more about the discomfort of librarians with discovery layers in order to make them successful. We should start talking about it when it comes to AI search now, even before many libraries have actually implemented these tools. We could start by developing guidelines and checklists that help libraries decide if they should invest in a commercially available tool. We should coordinate the development of an open-source version AI search interface for libraries. And last but not least, we should equip teaching librarians with the tools to translate the benefits and drawbacks of these tools to students and faculty.


viernes, 21 de marzo de 2025

¿Va a arruinar la IA la educación? - los efectos degradantes de la datificación y la infantilización

Publicado en blog Universídad. Una conversación pública sobre la universidad
https://www.universidadsi.es/va-a-arruinar-la-ia-la-educacion/



¿Va a arruinar la IA la educación?


Profesora de la Facultad de Educación de la Universidad Complutense de Madrid
20/03/2025
Hace dos años, en la Facultad de Educación de la Universidad Complutense, nos asaltaron los miedos propios de quienes nos dedicamos a las Ciencias Sociales y utilizamos ensayos escritos como vía de evaluación del conocimiento de los estudiantes. Irrumpió ChatGPT. Lo probamos y quedamos abrumados. No hacía maravillas (por aquel entonces), pero elaboraba textos muy dignos si sabías cómo preguntar. Ahí comenzamos a retomar los exámenes orales y escritos como único modo de evaluación hasta nuevo aviso. Necesitábamos pensar e investigar el asunto.

El siguiente paso que dimos fue hacer algún experimento con estudiantes, para comprobar si el uso de ChatGPT mejoraba productos o personas, esto es, si hacer preguntas al chatbot incrementaba la calidad de los escritos o si dejaba algún poso en las cabezas de los estudiantes. Y así nació el proyecto ChatGPTeaching.

La IA y el efecto San Mateo

Dejando a un lado el camino metodológico que convertiría este escrito en un artículo académico, pudimos concluir provisionalmente que se cumplía –para sorpresa de nadie– el Efecto San Mateo de ‘A quien más tiene, más se le dará; y a quien no tiene se le quitará incluso lo que cree tener’ (Mt 13, 11).

Los estudiantes que partían de mejores niveles de conocimiento (sin la IA) alcanzaron un uso más provechoso para sus trabajos y además retenían esa nueva información a lo largo del tiempo.

A los que partían de la ignorancia, les ayudó sólo levemente a mejorar sus trabajos y, además, no les había dejado ningún poso en la memoria pasado un tiempo, rindiendo incluso peor que antes de haber utilizado la IA. Así se cumplía también la expresión que utiliza Gregorio Luri cuando dice que la tecnología funciona a modo de prótesis antropológica amplificando lo que ya somos. De ahí la importancia de la vida offline si se quiere tener algún provecho de la vida online.

Si bien parece que todo (lo obvio) está dicho en cuestiones de IA y educación, querría aquí abrir dos interrogantes, por si pueden ayudarte, querido lector, a abrir nuevas vías de reflexión.

Para ello, hay que partir de que la IA es más que ChatGPT: es el Apple Watch de tu muñeca, la Alexa de la cocina, los famosos hologramas, y las recomendaciones de Spotify y Netflix. Considero que observar la IA en su amplitud nos ayuda a hacernos preguntas más importantes. Comencemos, pues, por la datificación y la infantilización.

¿Pasa algo por dejar de dar paseos y empezar a dar 10.000 pasos diarios?

En el capitalismo cognitivo, término acuñado por Moulier-Boutang en el año 2008, el conocimiento es el punto de partida para las nuevas relaciones del capital, mientras que en el capitalismo informático (como en 2006 lo llamaron Bryan y Rafferty) el dato es el punto de partida.

El protagonismo de la información frente al conocimiento tiene evidentes consecuencias pedagógicas relacionadas con el tipo de empoderamiento que genera en las personas, pero también tiene unas primeras implicaciones antropológicas que merece la pena analizar.

La datificación, una reducción de lo humano

Si con la revolución industrial nos preocupaba la fragmentación y separación del ser humano con la naturaleza, con el capitalismo informático ocurre una fragmentación en la propia relación con nosotros mismos, al ser los datos fragmentos abstractos e insignificantes. Respecto a la datificación que provoca el capitalismo informático, López Gabrielidis en el 2020 afirmaba que este “interpela al sujeto como entidad significante (…) para luego extraer valor de la recombinación de sus transacciones dividuales en una variedad potencialmente infinita de conjunto de datos” (p. 124).

Un caso claro de datificación de los sujetos es el reloj inteligente que llevamos en nuestras muñecas. Nos informa de nuestras pulsaciones, nos cuenta los pasos, nos dice la body battery que tenemos al despertamos, nos registra con parámetros nuestras horas y calidad de sueño, e incluso puede detectar un principio de Parkinson. Todo lo datifica, monitorizando la realidad.

No tenemos gran consciencia de cómo estos dispositivos lo hacen ni de lo que hacen exactamente con nosotros, pero mediante algoritmos inteligentes generan recomendaciones basadas en cálculos. De este modo, un paseo se convierte en un número determinado de pasos y una noche de descanso se convierte en tiempo dormido, índice respiratorio y fases del ciclo de sueño por las que has pasado.

De la experiencia al dato: algunos ejemplos cotidianos del uso de la IA

En definitiva, todas estas Apps son objetos que datifican la vida como “unidades discontinuas de breve actualidad que no se combinan para constituir una historia” (Han, 2018, p. 6). Pensemos en la madre con tres hijos pequeños cuyo Apple Watch a las 08.00 de la mañana le dice “Tan solo tienes un 9% de body battery. ¡Ánimo, hoy puedes intentar dormir mejor!”. Su vida se ríe del dato.

Pero es que el fenómeno de la datificación parece imparable: reconocidas divulgadoras de psiquiatría hablan de la batería mental, en un intento de observarnos como máquinas que van gastando energía a lo largo del día y, sobre todo, cuyo objetivo último es el bienestar.

La continuidad narrativa de la vida (un paseo, una noche, una mala racha) que genera historia y memoria, pasa a ser interpretada por una acumulación de datos, reduciendo, de algún modo, lo humano a lo psicológico y cuantificable y, lo que es peor, obviando que la vida exige biografía.

El Apple Watch tiene la pretensión de facilitarnos la existencia, de liberarnos de este peso de auto-interpretar nuestra vida en narrativas coherentes con algún sentido unitario, tarea a menudo fatigosa pero que, por otro lado, nos humaniza y no nos reduce a nuestras funciones ejecutivas.

¿Qué riesgos tiene dialogar con bots que siempre nos dan la razón?

Si compartimos la idea de Biesta de que estar en el mundo de una manera adulta tiene que ver con que las cosas y el mundo no sean como deseamos, algunos objetos de la IA pueden estar apuntado a un sujeto que permanezca, como dice la canción de Alphaville, ‘Forever Young’, con una aparente liberación de las imposiciones duras de la alteridad tozuda que no parte ni tiene en cuenta nuestros deseos y preferencias.

Si algo nos han demostrado las prácticas con procesadores de información y chatbots en los últimos tiempos es que quieren aligerarnos la vida, estar a nuestra disposición y llevarnos poco la contraria. Estos objetos han sido entrenados para evitar sesgos discriminatorios y posturas controvertidas a nivel social. Pero es que, además, el nivel de respuesta se adapta siempre al nivel de la pregunta. No hay malas preguntas para la IA. ChatGPT nunca te dirá: “esa pregunta es pobre e incluso preocupante para la edad y formación que usted tiene”.

Como siempre parten de nosotros mismos, no nos enfrentan al mundo, no nos fuerzan a oponer resistencias, sino que nos condenan a un círculo constante de autorreferencia.

Justo lo contrario que pretende la educación: introducirnos en la totalidad de la realidad.

La datificación y la infantilización son contrarias a la educación, porque nos reduce una, y no nos deja crecer la otra.

En definitiva, ahora que ya se nos ha pasado el susto inicial de la IA, toca ayudarnos, desde todas las disciplinas, a hacernos buenas preguntas sobre las condiciones de posibilidad de desarrollo humano (objetivo de la educación) que pueden darse en el contexto de la IA y actuar, con prudencia y determinación, en consecuencia.

lunes, 17 de marzo de 2025

Capacidad creativa de los estudiantes decrece con la IA, afirma Carlos Coello

Publicado en La Jornada
https://www.jornada.com.mx/2025/03/03/politica/007n2pol




Capacidad creativa de los estudiantes decrece con la IA, afirma Carlos Coello

Alexia Villaseñor
 
Periódico La Jornada
Lunes 3 de marzo de 2025, p. 7

El uso de inteligencia artificial (IA) en el ámbito educativo implica un riesgo y es preocupante, debido a que en un lapso corto han decrecido las capacidades creativas de estudiantes, señaló Carlos Coello Coello, miembro de El Colegio Nacional desde 2023.

El computólogo, en entrevista, precisó que una de las prioridades sobre estas tecnologías debe ser la enseñanza de la ética para concientizar a los jóvenes de que estas herramientas están diseñadas para catapultar la creatividad, pero no para sustituirla.

Estas tecnologías son un apoyo, no son todo, no son el sustituto de tener que leer libros, de estudiar, de aprender matemáticas, física, química. No porque la IA nos pueda resolver las dudas, ya no tenemos que hacer algo extra, porque si eso ocurre, no se vayan a quejar de que les quiten su empleo, porque también puede hacer el empleo que tenemos, advirtió.

El investigador recalcó la importancia de equilibrar el uso de la IA y los límites que los jóvenes se deben imponer al usarla para no abusar de ella.

También enfatizó en el ámbito educativo, en el sentido de que se están formando jóvenes que realmente no van a tener el conocimiento que avala su título universitario, porque en realidad no saben hacer lo que tenían que haber aprendido porque hicieron todo con estas herramientas.

Mencionó que algunas empresas como Google DeepMind están tomando medidas para detectar qué se hizo con IA. Por ejemplo, los contenidos hechos con esta tecnología saldrán con un sello de agua digital que permite detectar si esto fue generado con IA generativa, en lugar de usar un algoritmo como lo hacen otras plataformas. De esta forma, se puede detectar fácilmente si un ensayo o imagen fue realizados por un LLM (modelo de lenguaje extenso) como chat GPT, dijo.

Coello reconoció que los empleos que requieren creatividad, difícilmente la IA los va a poder desplazar. La parte creativa la sigue haciendo el humano, no la va a hacer sola la computadora, es a través de texto que puede crear imágenes, video o audio, pero responderá a lo que una persona le pida, potencializa la capacidad de la persona, no la remplaza.

Entre otros retos acerca del empleo de la IA, dijo, está lograr que los países legislen al respecto, principalmente para protección de datos que utilizan los algoritmos y en términos de transparencia, que muchas veces queda en duda; no se sabe si una foto o un audio son falsos y al estar tan bien hecho no puedes diferenciar si es real o no.

El investigador recientemente impartió el curso Una breve introducción a la inteligencia artificial y sus aplicaciones, en la sede de El Colegio Nacional, cuyo objetivo fue alejar los temores de la población sobre los alcances de esta tecnología. Entre sus próximos proyectos dentro del colegio están el ciclo de conferencias Del gato de Schrödinger al teorema de Bell: cien años de ciencia y tecnología cuántica, en las cuales se hablará, entre otros temas, de computación cuántica.

MÉXICO: se queda atrás en gasto I+D (parte 1)

Publicado por Latinometrics https://x.com/LatamData/status/1848396321763250656?t=MABZaKFUIxeNyZfAiITFWw&s=08     ¿Por qué México se qued...