Publicado en blog Universídad. Una conversación pública sobre la universidad
https://www.universidadsi.es/va-a-arruinar-la-ia-la-educacion/
Profesora de la Facultad de Educación de la Universidad Complutense de Madrid
—
El siguiente paso que dimos fue hacer algún experimento con estudiantes, para comprobar si el uso de ChatGPT mejoraba productos o personas, esto es, si hacer preguntas al chatbot incrementaba la calidad de los escritos o si dejaba algún poso en las cabezas de los estudiantes. Y así nació el proyecto ChatGPTeaching.
La IA y el efecto San MateoDejando a un lado el camino metodológico que convertiría este escrito en un artículo académico, pudimos concluir provisionalmente que se cumplía –para sorpresa de nadie– el Efecto San Mateo de ‘A quien más tiene, más se le dará; y a quien no tiene se le quitará incluso lo que cree tener’ (Mt 13, 11).
Los estudiantes que partían de mejores niveles de conocimiento (sin la IA) alcanzaron un uso más provechoso para sus trabajos y además retenían esa nueva información a lo largo del tiempo.
A los que partían de la ignorancia, les ayudó sólo levemente a mejorar sus trabajos y, además, no les había dejado ningún poso en la memoria pasado un tiempo, rindiendo incluso peor que antes de haber utilizado la IA. Así se cumplía también la expresión que utiliza Gregorio Luri cuando dice que la tecnología funciona a modo de prótesis antropológica amplificando lo que ya somos. De ahí la importancia de la vida offline si se quiere tener algún provecho de la vida online.
Si bien parece que todo (lo obvio) está dicho en cuestiones de IA y educación, querría aquí abrir dos interrogantes, por si pueden ayudarte, querido lector, a abrir nuevas vías de reflexión.
Para ello, hay que partir de que la IA es más que ChatGPT: es el Apple Watch de tu muñeca, la Alexa de la cocina, los famosos hologramas, y las recomendaciones de Spotify y Netflix. Considero que observar la IA en su amplitud nos ayuda a hacernos preguntas más importantes. Comencemos, pues, por la datificación y la infantilización.
¿Pasa algo por dejar de dar paseos y empezar a dar 10.000 pasos diarios?En el capitalismo cognitivo, término acuñado por Moulier-Boutang en el año 2008, el conocimiento es el punto de partida para las nuevas relaciones del capital, mientras que en el capitalismo informático (como en 2006 lo llamaron Bryan y Rafferty) el dato es el punto de partida.
El protagonismo de la información frente al conocimiento tiene evidentes consecuencias pedagógicas relacionadas con el tipo de empoderamiento que genera en las personas, pero también tiene unas primeras implicaciones antropológicas que merece la pena analizar.
La datificación, una reducción de lo humanoSi con la revolución industrial nos preocupaba la fragmentación y separación del ser humano con la naturaleza, con el capitalismo informático ocurre una fragmentación en la propia relación con nosotros mismos, al ser los datos fragmentos abstractos e insignificantes. Respecto a la datificación que provoca el capitalismo informático, López Gabrielidis en el 2020 afirmaba que este “interpela al sujeto como entidad significante (…) para luego extraer valor de la recombinación de sus transacciones dividuales en una variedad potencialmente infinita de conjunto de datos” (p. 124).
Un caso claro de datificación de los sujetos es el reloj inteligente que llevamos en nuestras muñecas. Nos informa de nuestras pulsaciones, nos cuenta los pasos, nos dice la body battery que tenemos al despertamos, nos registra con parámetros nuestras horas y calidad de sueño, e incluso puede detectar un principio de Parkinson. Todo lo datifica, monitorizando la realidad.
No tenemos gran consciencia de cómo estos dispositivos lo hacen ni de lo que hacen exactamente con nosotros, pero mediante algoritmos inteligentes generan recomendaciones basadas en cálculos. De este modo, un paseo se convierte en un número determinado de pasos y una noche de descanso se convierte en tiempo dormido, índice respiratorio y fases del ciclo de sueño por las que has pasado.
De la experiencia al dato: algunos ejemplos cotidianos del uso de la IAEn definitiva, todas estas Apps son objetos que datifican la vida como “unidades discontinuas de breve actualidad que no se combinan para constituir una historia” (Han, 2018, p. 6). Pensemos en la madre con tres hijos pequeños cuyo Apple Watch a las 08.00 de la mañana le dice “Tan solo tienes un 9% de body battery. ¡Ánimo, hoy puedes intentar dormir mejor!”. Su vida se ríe del dato.
Pero es que el fenómeno de la datificación parece imparable: reconocidas divulgadoras de psiquiatría hablan de la batería mental, en un intento de observarnos como máquinas que van gastando energía a lo largo del día y, sobre todo, cuyo objetivo último es el bienestar.
La continuidad narrativa de la vida (un paseo, una noche, una mala racha) que genera historia y memoria, pasa a ser interpretada por una acumulación de datos, reduciendo, de algún modo, lo humano a lo psicológico y cuantificable y, lo que es peor, obviando que la vida exige biografía.
El Apple Watch tiene la pretensión de facilitarnos la existencia, de liberarnos de este peso de auto-interpretar nuestra vida en narrativas coherentes con algún sentido unitario, tarea a menudo fatigosa pero que, por otro lado, nos humaniza y no nos reduce a nuestras funciones ejecutivas.
¿Qué riesgos tiene dialogar con bots que siempre nos dan la razón?Si compartimos la idea de Biesta de que estar en el mundo de una manera adulta tiene que ver con que las cosas y el mundo no sean como deseamos, algunos objetos de la IA pueden estar apuntado a un sujeto que permanezca, como dice la canción de Alphaville, ‘Forever Young’, con una aparente liberación de las imposiciones duras de la alteridad tozuda que no parte ni tiene en cuenta nuestros deseos y preferencias.
Si algo nos han demostrado las prácticas con procesadores de información y chatbots en los últimos tiempos es que quieren aligerarnos la vida, estar a nuestra disposición y llevarnos poco la contraria. Estos objetos han sido entrenados para evitar sesgos discriminatorios y posturas controvertidas a nivel social. Pero es que, además, el nivel de respuesta se adapta siempre al nivel de la pregunta. No hay malas preguntas para la IA. ChatGPT nunca te dirá: “esa pregunta es pobre e incluso preocupante para la edad y formación que usted tiene”.
Como siempre parten de nosotros mismos, no nos enfrentan al mundo, no nos fuerzan a oponer resistencias, sino que nos condenan a un círculo constante de autorreferencia.
Justo lo contrario que pretende la educación: introducirnos en la totalidad de la realidad.
La datificación y la infantilización son contrarias a la educación, porque nos reduce una, y no nos deja crecer la otra.
En definitiva, ahora que ya se nos ha pasado el susto inicial de la IA, toca ayudarnos, desde todas las disciplinas, a hacernos buenas preguntas sobre las condiciones de posibilidad de desarrollo humano (objetivo de la educación) que pueden darse en el contexto de la IA y actuar, con prudencia y determinación, en consecuencia.
No hay comentarios:
Publicar un comentario