lunes, 1 de septiembre de 2025

U.S.A.: profesores pugnan por un control académico y no corporativo de la IA como tecnología educativa

Publicado en blog Academe
https://academeblog.org/2025/07/22/fighting-weaponized-ai-in-higher-education/




Lucha contra la IA utilizada como arma en la educación superior


POR BRITT S. PARIS, LINDSAY WEINBERG Y EMMA MAY


Mañana, 23 de julio, la administración Trump tiene previsto publicar un «plan de acción sobre IA» que refleja las prioridades de la Casa Blanca para expandir la industria de la inteligencia artificial. Se basa en una de las primeras directivas de la segunda administración Trump, la Orden Ejecutiva (EO) 14179, «Eliminación de barreras al liderazgo estadounidense en inteligencia artificial», que «revoca ciertas políticas y directivas existentes en materia de IA que actúan como barreras a la innovación estadounidense en IA». La administración promete cientos de miles de millones de dólares de los contribuyentes y eliminar las pocas regulaciones tecnológicas que existen. Sin embargo, tal y como pretenden los oligarcas tecnológicos, la IA paraliza los sistemas de beneficio público, priva de derechos a los trabajadores y amplía el estado de vigilancia al servicio de la represión autoritaria de la libertad de expresión y de asociación. Como todas las tecnologías, la IA no es neutral, ni se crea en el vacío. La forma en que los oligarcas y otras entidades poderosas poseen, guían y utilizan la IA la ha convertido en un arma contra el bien público.


Los ataques directos de la administración Trump contra las personas de color, las personas trans y discapacitadas, los inmigrantes, la ciencia, las instituciones democráticas, la libertad académica y la educación superior ponen de relieve la interconexión de las luchas en múltiples frentes. Dado que la industria tecnológica ha facilitado y llevado a cabo estos ataques, los análisis de la situación actual también deben considerar críticamente la crisis de la tecnología corporativa y su poder sin control.


En lugar de entrar en pánico o aceptar la IA corporativa como algo inevitable en la educación superior, debemos construir estrategias solidarias en todos los sectores, tanto en la educación como en otros ámbitos, así como en la sociedad civil y las organizaciones de base que luchan en muchos frentes, para establecer un poder ascendente sobre la tecnología.


Para avanzar en esta lucha, el Comité ad hoc sobre Inteligencia Artificial y Profesiones Académicas de la AAUP ha publicado un nuevo informe basado en una encuesta realizada a miembros de la AAUP de todos los rangos docentes, categorías laborales y tipos de instituciones. Nuestro comité reconoce que lo que está en juego con el despliegue de la IA en la educación superior es la posibilidad de una participación informada en la democracia, así como la justicia laboral y educativa en un sector en el que «las condiciones de trabajo del profesorado son las condiciones de aprendizaje de los estudiantes».


A medida que las asociaciones corporativas de IA, como la anunciada para el sistema de la Universidad Estatal de California a principios de este año, se han extendido por la educación superior, los miembros han manifestado su deseo de que se supervise de forma independiente la adquisición y el despliegue de tecnología, junto con formas significativas de optar por no utilizar la tecnología, rechazar la vigilancia administrativa y facilitar formaciones centradas en los trabajadores y los estudiantes que no socaven la solidaridad entre los profesores y los estudiantes y no se basen en la exageración tecnológica de las empresas. 


¿En qué se parecen y en qué se diferencian la IA y la tecnología educativa?


 A menudo, cuando hablamos de tecnología educativa en los últimos quince años, pensamos en software como los sistemas de gestión de cursos, que utilizan cada vez más grandes modelos lingüísticos para guiar sus funciones intensivas en datos. La IA es un término de marketing para vender modelos intensivos en datos para analizar información o proporcionar recomendaciones basadas en los datos recopilados a través de estas plataformas de tecnología educativa e incluso de las propias instituciones educativas. Muchas veces, las funciones de IA se incorporan a la tecnología educativa heredada sin el conocimiento de los usuarios. La IA generativa se ejemplifica en ChatGPT, que utiliza estas mismas infraestructuras intensivas en datos para combinar flujos de datos, aparentemente creando nuevos textos, vídeos e imágenes a partir de datos recopilados sin el conocimiento ni el consentimiento de las personas y con importantes costes sociales y medioambientales.


El 81 % de los encuestados en la encuesta de nuestro comité ad hoc indicaron que carecían de control sobre la tecnología educativa, incluso antes de la introducción de la IA. Los miembros informan de que en sus campus hay poca o ninguna participación en los contratos tecnológicos y en la toma de decisiones por parte de personas que hayan pisado un aula o se dediquen a la investigación. La mayoría de las tecnologías educativas no están probadas y rara vez mejoran los resultados del aprendizaje. El análisis predictivo se ha utilizado para hacer recomendaciones discriminatorias, como empujar a los estudiantes pertenecientes a minorías hacia itinerarios académicos «más fáciles». Los encuestados señalaron que la IA impuesta por la universidad supone más trabajo para el profesorado y abre la puerta a una mayor vigilancia de los estudiantes y el profesorado.


Las instituciones pagan enormes sumas de dinero a las empresas tecnológicas por tecnologías sin probar y extractivas, lo que se ha intensificado a través de asociaciones de IA en los últimos siete meses. Mientras tanto, ese dinero podría invertirse mejor en mejores instalaciones, seguridad laboral, igualdad salarial y mucho más.


¿Qué podemos hacer?


 Basándonos en lo que hemos descubierto al interactuar con los miembros en torno a la tecnología y la IA, sugerimos desarrollar una sólida formación para trabajadores y estudiantes sobre el impacto de la tecnología en las condiciones de trabajo y aprendizaje. Cada sección de la AAUP debería crear comités o órganos rectores de trabajadores y estudiantes que puedan revisar las decisiones de adquisición, exigir responsabilidades a los administradores por sus decisiones y corregir los fallos de las políticas tecnológicas para cumplir con la misión educativa de la institución. Estos órganos deberían estar compuestos por estudiantes, profesores de todos los rangos y personal, y tener poder para supervisar, negociar e incluso rechazar las decisiones de adquisición y despliegue de tecnología en sus instituciones.


Teniendo en cuenta las preocupaciones de los miembros, hemos elaborado una lista de deseos que deberá ser adaptada por los claustros académicos para las unidades no negociadoras y por los profesionales jurídicos de las unidades negociadoras para el contexto institucional de cada capítulo negociador. También sugerimos crear unidades de defensa tecnológica para hacer frente a la legislación perjudicial y, lo que es más importante, para combatir los usos acríticos y explotadores de la IA y la tecnología en la educación.


La IA en la educación superior es más que una cuestión de implementación tecnológica: pone de relieve la necesidad de fomentar la solidaridad entre sectores, categorías laborales e instituciones para luchar contra la devaluación del trabajo y la vida humanos.


Únete a la lucha.


 La cuestión no es si utilizas personalmente Microsoft CoPilot para ayudarte a revisar tus correos electrónicos, ni se trata de castigar a los estudiantes. Se trata más bien del valor de tu trabajo, de que se te pague adecuadamente por él, de la importancia del aprendizaje y la curiosidad intelectual, de poder controlar tus condiciones de trabajo y de preocuparte por el futuro de la participación en una sociedad democrática.


Nos han impresionado los análisis de los miembros de la AAUP sobre el poder en torno a la tecnología. Lo que hemos aprendido de los profesionales académicos subraya que están muy familiarizados con los beneficios, las deficiencias y los perjuicios de estas tecnologías. Nos estamos organizando para que los miembros participen en la decisión de si se implementan tecnologías en sus instituciones y cuáles, y cómo se utilizan en su investigación, enseñanza y servicio. Juntos, podemos establecer una política centrada en los estudiantes y los profesores y reclamar el poder sobre la tecnología.


En respuesta al Plan de Acción de Trump sobre IA, la AAUP ha firmado su apoyo al Plan de Acción Popular sobre IA, que hace hincapié en la supervisión pública de la tecnología. Lea aquí el informe completo de la AAUP sobre la inteligencia artificial y las profesiones académicas.


////////////////////////////////

Fighting Weaponized AI in Higher Education

Guest Blogger / 2 days ago

BY BRITT S. PARIS, LINDSAY WEINBERG, AND EMMA MAY

Tomorrow, July 23, the Trump administration plans to release an “AI action plan” that reflects the White House’s priorities for expanding the artificial intelligence industry. It builds on one of the first directives from the second Trump administration, Executive Order (EO) 14179, “Removing Barriers to American Leadership in Artificial Intelligence,” whichrevokes certain existing AI policies and directives that act as barriers to American AI innovation.”  The administration is promising hundreds of billions of taxpayer dollars and removing what little tech regulation exists. Yet used as tech oligarchs intend, AI grinds public-benefit systems to a halt, disenfranchises workers, and expands the surveillance state in service of authoritarian crackdowns on freedom of speech and association. Like all technologies, AI is not neutral, nor is it created in a vacuum.  The way AI is owned, guided, and used by oligarchs and other powerful entities has made it a weapon against the public good.  

The Trump administration’s direct attacks on people of color, trans and disabled people, immigrants, science, democratic institutions, academic freedom, and higher education highlight the interconnectedness of struggles on multiple fronts. As the tech industry has facilitated and performed these attacks, analyses of the current moment must also critically consider the crisis of corporate technology and its unchecked power.

Instead of panicking, or accepting corporate AI as inevitable in higher education, we need to build solidaristic strategies across education and other sectors, as well as across civil society and grassroots organizations fighting on many fronts, to establish bottom-up power over technology.  

To move us forward in this fight, the AAUP’s ad hoc Committee on Artificial Intelligence and Academic Professions has published a new report based on a survey of AAUP members across faculty ranks, job categories, and institution types. Our committee recognizes that what’s at stake with how AI is deployed in higher education is the possibility of informed participation in democracy, as well as labor and education justice in a sector where “faculty working conditions are student learning conditions.”

As corporate AI partnerships like the one announced for the California State University system earlier this year have rippled across higher education, members have indicated a desire for independent oversight of technology procurement and deployment, along with meaningful ways of opting out of technology use, rejecting managerial surveillance, and facilitating worker- and student-centered trainings that do not undermine solidarity between instructors and students and are not based in corporate technology hype.  

How Are AI and Educational Technology Similar and Different?


Often, when speaking of educational technology over the last fifteen years, we are thinking of software such as course management systems, which increasingly use large language models to guide their data-intensive features. AI is a marketing term to sell data-intensive models for analyzing information or providing recommendations based on data collected across these educational technology platforms and even from educational institutions themselves. Many times AI features are incorporated into legacy education technology without the knowledge of users. Generative AI is exemplified in ChatGPT, which uses these same data-intensive infrastructures to combine data streams, seeming to create new text, video, and images from data collected without people’s knowledge or consent and with significant social and environmental costs.

Eighty-one percent of respondents in our ad hoc committee’s survey indicated that they lacked control around educational technology, even before the introduction of AI. Members report there is little or no involvement on their campuses in technology contracts and decision-making from anyone who has stepped foot in a classroom or does research. The majority of educational technologies are unproven and rarely advance learning outcomes. Predictive analytics have been used to make discriminatory recommendations, such as to push minoritized students onto “easier” academic tracks. Respondents noted that AI imposed by the university causes more work for faculty and opens the door for more surveillance of students and faculty.

Institutions trade enormous sums of money to tech companies for unproven and extractive technology, which has ramped up through AI partnerships in the last seven months. All the while, the money could be better spent on better facilities, job security, pay equity, and much more. 

What Can We Do?
Based on what we found from engaging with members around technology and AI, we suggest building out robust worker and student education about the impact of technology on working and learning conditions. Each AAUP chapter should establish worker and student committees or governing bodies that can review procurement decisions, hold administrators accountable for their decision-making, and correct technology policy failures to serve the educational mission of the institution. These bodies should be comprised of students, faculty of all ranks, and staff and have power to oversee, negotiate, and even refuse tech procurement and deployment decisions at their institutions. 

Taking members’ concerns into account, we have developed a wish list to be adapted by academic senates for nonbargaining units and by bargaining unit legal professionals for each bargaining chapter’s institutional context. We also suggest building out tech advocacy units to confront harmful legislation and, more importantly, to combat uncritical and exploitative uses of AI and technology in education.

AI in higher education is more than an issue of tech deployment—it highlights the need to foster solidarity across sectors, job categories, and institutions to fight the devaluation of human work and lives.  

Join the Fight
The issue is not whether you personally use Microsoft CoPilot to help with slogging through emails, and it’s not about punishing students. Rather, it is about the value of your work, being paid appropriately for it, the importance of learning and intellectual curiosity, being able to have control over your working conditions, and caring about the future of participation in a democratic society.

We have been blown away by AAUP members’ analyses of power around technology. What we have learned from academic professionals underscores that they are intimately familiar with these technologies’ benefits, shortcomings, and harms. We are organizing to engage members  in deciding whether and which technologies are implemented in their institutions and how they are used in their research, teaching, and service. Together, we can establish student- and instructor-centered policy and claim power over technology.

In response to The Trump AI Action Plan, the AAUP has signed on in support of the People’s AI Action Plan, which emphasizes public oversight of technology. Read the full AAUP report Artificial Intelligence and Academic Professions here

Britt S. Paris is associate professor of library and information science at Rutgers University–New Brunswick, a member of the Rutgers AAUP-AFT Executive Council, and chair of the AAUP’s ad hoc Committee on Artificial Intelligence and Academic Professions.  

Lindsay Weinberg is clinical associate professor at Purdue University’s John Martinson Honors College, where she is director of the Tech Justice Lab. She is the vice president of the AAUP chapter at Purdue and a member of the ad hoc committee on AI.

Emma May is a doctoral candidate in library and information science at Rutgers University, a Rutgers AAUP-AFT member, and a member of the ad hoc committee on AI.


U.S.A.: profesores pugnan por un control académico y no corporativo de la IA como tecnología educativa

Publicado en blog Academe https://academeblog.org/2025/07/22/fighting-weaponized-ai-in-higher-education/ Lucha contra la IA utilizada como a...