Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas
Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas

domingo, 7 de septiembre de 2025

Donald Trump quiere “limpiar” Gaza para establecer una ciudad IA

Publicado en DPL News
https://dplnews.com/trump-quiere-limpiar-gaza-para-establecer-ciudad-ia/




Donald Trump quiere “limpiar” Gaza para establecer una ciudad IA

The Washington Post reveló un documento en el que se observa cómo Estados Unidos planea construir Centros de Datos, fábricas de vehículos eléctricos, entre otros desarrollos.



El presidente de Estados Unidos, Donald Trump, tiene planes para Gaza, y es “limpiar” el territorio de su población originaria y establecer una zona dedicada a la Inteligencia Artificial (IA), reveló The Washington Post.

El diario estadounidense informó que tuvo acceso a un documento que circula en la administración del gobierno de Trump, en el que se establece el plan de convertir a Gaza en la “Riviera de Medio Oriente” para su reconstrucción.

El documento en posesión de The Washington Post asegura que los 2 millones de habitantes de Gaza abandonarán el territorio mediante salidas voluntarias a otros países o a territorio restringido.

De acuerdo con información de la agencia Reuters, hay una propuesta para construir campos a gran escala denominados “zonas de tránsito humanitario”, dentro y fuera de Gaza, donde se prevé que la población palestina sea alojada.

Tras la publicación del periódico, Hamás rechazó el plan estadounidense sobre el territorio de Gaza y denunció que se trata de un proyecto de desplazamiento de la población.

Bassem Naïm, miembro de la oficina política del grupo palestino Hamás, dijo que “Gaza no está en venta”, además de que Gaza es “parte integrante de la gran patria palestina”.

De acuerdo con The Washington Post, el documento sobre el plan de reconstrucción de Gaza está ilustrado con imágenes generadas por Inteligencia Artificial (IA), y describe un territorio compuesto por entre seis y ocho ciudades inteligentes gestionadas por esta tecnología.

El plan también incluye imágenes de IA sobre complejos hoteleros, trenes, Centros de Datos, fábricas de vehículos eléctricos, así como islas artificiales inspiradas en las de Dubái.

A inicios de agosto, la ONU informó que más de 1,000 personas habían muerto tratando de recibir ayuda en Gaza desde que la Fundación Humanitaria de Gaza, integrada por Estados Unidos e Israel, comenzó a operar en mayo de 2025, por disparos del ejército de Israel.

La visión de Donald Trump es que Gaza quede bajo la administración de una entidad estadounidense llamada “GREAT Trust” (siglas de Fideicomiso para la Reconstrucción, Aceleración Económica y Transformación de Gaza) por al menos una década.

Afirma que después de esos 10 años, se transferiría el control a una autoridad palestina reformada y libre de radicalismo.

REVISTAS DEPREDADORAS rastreadas por IA: Cientos de revistas científicas son cuestionadas por IA, revela estudio

Publicado en La Jornada
https://www.jornada.com.mx/noticia/2025/09/03/ciencias/cientos-de-revistas-cientificas-son-cuestionadas-por-ia-revela-estudio



Cientos de revistas científicas son cuestionadas por IA, revela estudio

03 de septiembre de 2025 

Madrid. Una plataforma de inteligencia artificial (IA) que busca revistas científicas cuestionables marcó más de mil 400 como “potencialmente problemáticas” en una lista de casi 15 mil 200 cabeceras de acceso abierto en Internet.

El estudio, publicado en Science Advances, liderado por la Universidad de Colorado en Boulder, aborda una tendencia alarmante en el mundo de la investigación.

Daniel Acuña, autor principal del estudio y profesor asociado del Departamento de Ciencias de la Computación, recibe recordatorios varias veces a la semana en su correo electrónico: estos mensajes de spam provienen de personas que se hacen pasar por editores de revistas científicas, generalmente de las que Acuña nunca ha oído hablar, y que ofrecen publicar sus artículos por una tarifa elevada.

A estas publicaciones a veces se las denomina revistas “depredadoras”. Se dirigen a los científicos, convenciéndolos de pagar cientos o incluso miles de dólares para publicar sus investigaciones sin una verificación adecuada.

“Ha habido un esfuerzo creciente entre científicos y organizaciones para verificar estas revistas”, afirmó Acuña. Pero es como jugar a la estrategia de golpear topos. Atrapas a uno y luego aparece otro, generalmente de la misma empresa. Simplemente crean un nuevo sitio web y le dan un nuevo nombre.

La nueva herramienta de IA de su grupo filtra automáticamente las revistas científicas, evaluando sus sitios web y otros datos en línea según ciertos criterios: ¿Tienen las revistas un consejo editorial con investigadores consolidados? ¿Contienen sus sitios web muchos errores gramaticales? Acuña enfatiza que la herramienta no es perfecta. En última instancia, cree que los expertos humanos, no las máquinas, deberían tomar la decisión final sobre la reputación de una revista.

Pero en una época en la que figuras prominentes cuestionan la legitimidad de la ciencia, frenar la proliferación de publicaciones cuestionables se ha vuelto más importante que nunca, afirmó.

“En ciencia, no se empieza desde cero. Se construye sobre la base de la investigación de otros”, dijo Acuña. “Así que, si los cimientos de esa torre se derrumban, todo se derrumba”.

La extorsión

Cuando los científicos envían un nuevo estudio a una publicación prestigiosa, éste suele someterse a una práctica llamada revisión por pares. Expertos externos leen el estudio y evalúan su calidad; o al menos, ese es el objetivo.

Un número creciente de empresas ha intentado eludir este proceso para obtener beneficios. En 2009, Jeffrey Beall, bibliotecario de la Universidad de Colorado, acuñó el término “revistas depredadoras” para describir estas publicaciones.

A menudo, se dirigen a investigadores fuera de Estados Unidos y Europa, como en China, India e Irán, países donde las instituciones científicas pueden ser jóvenes y la presión y los incentivos para que los investigadores publiquen son altos.

“Dicen: ‘Si pagas 500 o mil dólares, revisaremos tu artículo”’, explicó Acuña. “En realidad, no ofrecen ningún servicio. Simplemente toman el PDF y lo publican en su sitio web”.

Diversos grupos han intentado frenar esta práctica. Entre ellos se encuentra una organización sin fines de lucro llamada Directorio de Revistas de Acceso Abierto (DOAJ). Desde 2003, voluntarios han marcado miles de revistas como sospechosas basándose en seis criterios. (Las publicaciones de renombre, por ejemplo, suelen incluir una descripción detallada de sus políticas de revisión por pares en sus sitios web).

Pero seguir el ritmo de la proliferación de estas publicaciones ha sido una tarea abrumadora para los humanos.

Para acelerar el proceso, Acuña y sus colegas recurrieron a la IA. El equipo entrenó su sistema con los datos del DOAJ y luego le pidió a la inteligencia artificial que examinara una lista de casi 15 mil 200 revistas de acceso abierto en Internet.

De estas publicaciones, la IA marcó inicialmente más de mil 400 como potencialmente problemáticas.

Acuña y sus colegas pidieron a expertos humanos que revisaran un subconjunto de las revistas sospechosas. La IA cometió errores, según los humanos, marcando aproximadamente 350 publicaciones como cuestionables cuando probablemente eran legítimas. Esto aún dejaba más de mil revistas que los investigadores identificaron como cuestionables. “Creo que esto debería usarse como ayuda para preseleccionar un gran número de revistas”, expuso. “Pero el análisis final debería ser realizado por profesionales humanos”.

No es una caja negra

Acuña añadió que los investigadores no querían que su sistema fuera una “caja negra” como otras plataformas de IA.

“Con ChatGPT, por ejemplo, a menudo no se entiende por qué sugiere algo”, indicó Acuña. “Intentamos que el nuestro fuera lo más interpretable posible”.

El equipo descubrió, por ejemplo, que las revistas cuestionables publicaban una cantidad inusualmente alta de artículos. También incluían autores con más afiliaciones que las revistas más legítimas, y autores que citaban su propia investigación, en lugar de la de otros científicos, con una frecuencia inusualmente alta.

lunes, 1 de septiembre de 2025

U.S.A.: profesores pugnan por un control académico y no corporativo de la IA como tecnología educativa

Publicado en blog Academe
https://academeblog.org/2025/07/22/fighting-weaponized-ai-in-higher-education/




Lucha contra la IA utilizada como arma en la educación superior


POR BRITT S. PARIS, LINDSAY WEINBERG Y EMMA MAY


Mañana, 23 de julio, la administración Trump tiene previsto publicar un «plan de acción sobre IA» que refleja las prioridades de la Casa Blanca para expandir la industria de la inteligencia artificial. Se basa en una de las primeras directivas de la segunda administración Trump, la Orden Ejecutiva (EO) 14179, «Eliminación de barreras al liderazgo estadounidense en inteligencia artificial», que «revoca ciertas políticas y directivas existentes en materia de IA que actúan como barreras a la innovación estadounidense en IA». La administración promete cientos de miles de millones de dólares de los contribuyentes y eliminar las pocas regulaciones tecnológicas que existen. Sin embargo, tal y como pretenden los oligarcas tecnológicos, la IA paraliza los sistemas de beneficio público, priva de derechos a los trabajadores y amplía el estado de vigilancia al servicio de la represión autoritaria de la libertad de expresión y de asociación. Como todas las tecnologías, la IA no es neutral, ni se crea en el vacío. La forma en que los oligarcas y otras entidades poderosas poseen, guían y utilizan la IA la ha convertido en un arma contra el bien público.


Los ataques directos de la administración Trump contra las personas de color, las personas trans y discapacitadas, los inmigrantes, la ciencia, las instituciones democráticas, la libertad académica y la educación superior ponen de relieve la interconexión de las luchas en múltiples frentes. Dado que la industria tecnológica ha facilitado y llevado a cabo estos ataques, los análisis de la situación actual también deben considerar críticamente la crisis de la tecnología corporativa y su poder sin control.


En lugar de entrar en pánico o aceptar la IA corporativa como algo inevitable en la educación superior, debemos construir estrategias solidarias en todos los sectores, tanto en la educación como en otros ámbitos, así como en la sociedad civil y las organizaciones de base que luchan en muchos frentes, para establecer un poder ascendente sobre la tecnología.


Para avanzar en esta lucha, el Comité ad hoc sobre Inteligencia Artificial y Profesiones Académicas de la AAUP ha publicado un nuevo informe basado en una encuesta realizada a miembros de la AAUP de todos los rangos docentes, categorías laborales y tipos de instituciones. Nuestro comité reconoce que lo que está en juego con el despliegue de la IA en la educación superior es la posibilidad de una participación informada en la democracia, así como la justicia laboral y educativa en un sector en el que «las condiciones de trabajo del profesorado son las condiciones de aprendizaje de los estudiantes».


A medida que las asociaciones corporativas de IA, como la anunciada para el sistema de la Universidad Estatal de California a principios de este año, se han extendido por la educación superior, los miembros han manifestado su deseo de que se supervise de forma independiente la adquisición y el despliegue de tecnología, junto con formas significativas de optar por no utilizar la tecnología, rechazar la vigilancia administrativa y facilitar formaciones centradas en los trabajadores y los estudiantes que no socaven la solidaridad entre los profesores y los estudiantes y no se basen en la exageración tecnológica de las empresas. 


¿En qué se parecen y en qué se diferencian la IA y la tecnología educativa?


 A menudo, cuando hablamos de tecnología educativa en los últimos quince años, pensamos en software como los sistemas de gestión de cursos, que utilizan cada vez más grandes modelos lingüísticos para guiar sus funciones intensivas en datos. La IA es un término de marketing para vender modelos intensivos en datos para analizar información o proporcionar recomendaciones basadas en los datos recopilados a través de estas plataformas de tecnología educativa e incluso de las propias instituciones educativas. Muchas veces, las funciones de IA se incorporan a la tecnología educativa heredada sin el conocimiento de los usuarios. La IA generativa se ejemplifica en ChatGPT, que utiliza estas mismas infraestructuras intensivas en datos para combinar flujos de datos, aparentemente creando nuevos textos, vídeos e imágenes a partir de datos recopilados sin el conocimiento ni el consentimiento de las personas y con importantes costes sociales y medioambientales.


El 81 % de los encuestados en la encuesta de nuestro comité ad hoc indicaron que carecían de control sobre la tecnología educativa, incluso antes de la introducción de la IA. Los miembros informan de que en sus campus hay poca o ninguna participación en los contratos tecnológicos y en la toma de decisiones por parte de personas que hayan pisado un aula o se dediquen a la investigación. La mayoría de las tecnologías educativas no están probadas y rara vez mejoran los resultados del aprendizaje. El análisis predictivo se ha utilizado para hacer recomendaciones discriminatorias, como empujar a los estudiantes pertenecientes a minorías hacia itinerarios académicos «más fáciles». Los encuestados señalaron que la IA impuesta por la universidad supone más trabajo para el profesorado y abre la puerta a una mayor vigilancia de los estudiantes y el profesorado.


Las instituciones pagan enormes sumas de dinero a las empresas tecnológicas por tecnologías sin probar y extractivas, lo que se ha intensificado a través de asociaciones de IA en los últimos siete meses. Mientras tanto, ese dinero podría invertirse mejor en mejores instalaciones, seguridad laboral, igualdad salarial y mucho más.


¿Qué podemos hacer?


 Basándonos en lo que hemos descubierto al interactuar con los miembros en torno a la tecnología y la IA, sugerimos desarrollar una sólida formación para trabajadores y estudiantes sobre el impacto de la tecnología en las condiciones de trabajo y aprendizaje. Cada sección de la AAUP debería crear comités o órganos rectores de trabajadores y estudiantes que puedan revisar las decisiones de adquisición, exigir responsabilidades a los administradores por sus decisiones y corregir los fallos de las políticas tecnológicas para cumplir con la misión educativa de la institución. Estos órganos deberían estar compuestos por estudiantes, profesores de todos los rangos y personal, y tener poder para supervisar, negociar e incluso rechazar las decisiones de adquisición y despliegue de tecnología en sus instituciones.


Teniendo en cuenta las preocupaciones de los miembros, hemos elaborado una lista de deseos que deberá ser adaptada por los claustros académicos para las unidades no negociadoras y por los profesionales jurídicos de las unidades negociadoras para el contexto institucional de cada capítulo negociador. También sugerimos crear unidades de defensa tecnológica para hacer frente a la legislación perjudicial y, lo que es más importante, para combatir los usos acríticos y explotadores de la IA y la tecnología en la educación.


La IA en la educación superior es más que una cuestión de implementación tecnológica: pone de relieve la necesidad de fomentar la solidaridad entre sectores, categorías laborales e instituciones para luchar contra la devaluación del trabajo y la vida humanos.


Únete a la lucha.


 La cuestión no es si utilizas personalmente Microsoft CoPilot para ayudarte a revisar tus correos electrónicos, ni se trata de castigar a los estudiantes. Se trata más bien del valor de tu trabajo, de que se te pague adecuadamente por él, de la importancia del aprendizaje y la curiosidad intelectual, de poder controlar tus condiciones de trabajo y de preocuparte por el futuro de la participación en una sociedad democrática.


Nos han impresionado los análisis de los miembros de la AAUP sobre el poder en torno a la tecnología. Lo que hemos aprendido de los profesionales académicos subraya que están muy familiarizados con los beneficios, las deficiencias y los perjuicios de estas tecnologías. Nos estamos organizando para que los miembros participen en la decisión de si se implementan tecnologías en sus instituciones y cuáles, y cómo se utilizan en su investigación, enseñanza y servicio. Juntos, podemos establecer una política centrada en los estudiantes y los profesores y reclamar el poder sobre la tecnología.


En respuesta al Plan de Acción de Trump sobre IA, la AAUP ha firmado su apoyo al Plan de Acción Popular sobre IA, que hace hincapié en la supervisión pública de la tecnología. Lea aquí el informe completo de la AAUP sobre la inteligencia artificial y las profesiones académicas.


////////////////////////////////

Fighting Weaponized AI in Higher Education

Guest Blogger / 2 days ago

BY BRITT S. PARIS, LINDSAY WEINBERG, AND EMMA MAY

Tomorrow, July 23, the Trump administration plans to release an “AI action plan” that reflects the White House’s priorities for expanding the artificial intelligence industry. It builds on one of the first directives from the second Trump administration, Executive Order (EO) 14179, “Removing Barriers to American Leadership in Artificial Intelligence,” whichrevokes certain existing AI policies and directives that act as barriers to American AI innovation.”  The administration is promising hundreds of billions of taxpayer dollars and removing what little tech regulation exists. Yet used as tech oligarchs intend, AI grinds public-benefit systems to a halt, disenfranchises workers, and expands the surveillance state in service of authoritarian crackdowns on freedom of speech and association. Like all technologies, AI is not neutral, nor is it created in a vacuum.  The way AI is owned, guided, and used by oligarchs and other powerful entities has made it a weapon against the public good.  

The Trump administration’s direct attacks on people of color, trans and disabled people, immigrants, science, democratic institutions, academic freedom, and higher education highlight the interconnectedness of struggles on multiple fronts. As the tech industry has facilitated and performed these attacks, analyses of the current moment must also critically consider the crisis of corporate technology and its unchecked power.

Instead of panicking, or accepting corporate AI as inevitable in higher education, we need to build solidaristic strategies across education and other sectors, as well as across civil society and grassroots organizations fighting on many fronts, to establish bottom-up power over technology.  

To move us forward in this fight, the AAUP’s ad hoc Committee on Artificial Intelligence and Academic Professions has published a new report based on a survey of AAUP members across faculty ranks, job categories, and institution types. Our committee recognizes that what’s at stake with how AI is deployed in higher education is the possibility of informed participation in democracy, as well as labor and education justice in a sector where “faculty working conditions are student learning conditions.”

As corporate AI partnerships like the one announced for the California State University system earlier this year have rippled across higher education, members have indicated a desire for independent oversight of technology procurement and deployment, along with meaningful ways of opting out of technology use, rejecting managerial surveillance, and facilitating worker- and student-centered trainings that do not undermine solidarity between instructors and students and are not based in corporate technology hype.  

How Are AI and Educational Technology Similar and Different?


Often, when speaking of educational technology over the last fifteen years, we are thinking of software such as course management systems, which increasingly use large language models to guide their data-intensive features. AI is a marketing term to sell data-intensive models for analyzing information or providing recommendations based on data collected across these educational technology platforms and even from educational institutions themselves. Many times AI features are incorporated into legacy education technology without the knowledge of users. Generative AI is exemplified in ChatGPT, which uses these same data-intensive infrastructures to combine data streams, seeming to create new text, video, and images from data collected without people’s knowledge or consent and with significant social and environmental costs.

Eighty-one percent of respondents in our ad hoc committee’s survey indicated that they lacked control around educational technology, even before the introduction of AI. Members report there is little or no involvement on their campuses in technology contracts and decision-making from anyone who has stepped foot in a classroom or does research. The majority of educational technologies are unproven and rarely advance learning outcomes. Predictive analytics have been used to make discriminatory recommendations, such as to push minoritized students onto “easier” academic tracks. Respondents noted that AI imposed by the university causes more work for faculty and opens the door for more surveillance of students and faculty.

Institutions trade enormous sums of money to tech companies for unproven and extractive technology, which has ramped up through AI partnerships in the last seven months. All the while, the money could be better spent on better facilities, job security, pay equity, and much more. 

What Can We Do?
Based on what we found from engaging with members around technology and AI, we suggest building out robust worker and student education about the impact of technology on working and learning conditions. Each AAUP chapter should establish worker and student committees or governing bodies that can review procurement decisions, hold administrators accountable for their decision-making, and correct technology policy failures to serve the educational mission of the institution. These bodies should be comprised of students, faculty of all ranks, and staff and have power to oversee, negotiate, and even refuse tech procurement and deployment decisions at their institutions. 

Taking members’ concerns into account, we have developed a wish list to be adapted by academic senates for nonbargaining units and by bargaining unit legal professionals for each bargaining chapter’s institutional context. We also suggest building out tech advocacy units to confront harmful legislation and, more importantly, to combat uncritical and exploitative uses of AI and technology in education.

AI in higher education is more than an issue of tech deployment—it highlights the need to foster solidarity across sectors, job categories, and institutions to fight the devaluation of human work and lives.  

Join the Fight
The issue is not whether you personally use Microsoft CoPilot to help with slogging through emails, and it’s not about punishing students. Rather, it is about the value of your work, being paid appropriately for it, the importance of learning and intellectual curiosity, being able to have control over your working conditions, and caring about the future of participation in a democratic society.

We have been blown away by AAUP members’ analyses of power around technology. What we have learned from academic professionals underscores that they are intimately familiar with these technologies’ benefits, shortcomings, and harms. We are organizing to engage members  in deciding whether and which technologies are implemented in their institutions and how they are used in their research, teaching, and service. Together, we can establish student- and instructor-centered policy and claim power over technology.

In response to The Trump AI Action Plan, the AAUP has signed on in support of the People’s AI Action Plan, which emphasizes public oversight of technology. Read the full AAUP report Artificial Intelligence and Academic Professions here

Britt S. Paris is associate professor of library and information science at Rutgers University–New Brunswick, a member of the Rutgers AAUP-AFT Executive Council, and chair of the AAUP’s ad hoc Committee on Artificial Intelligence and Academic Professions.  

Lindsay Weinberg is clinical associate professor at Purdue University’s John Martinson Honors College, where she is director of the Tech Justice Lab. She is the vice president of the AAUP chapter at Purdue and a member of the ad hoc committee on AI.

Emma May is a doctoral candidate in library and information science at Rutgers University, a Rutgers AAUP-AFT member, and a member of the ad hoc committee on AI.


Donald Trump quiere “limpiar” Gaza para establecer una ciudad IA

Publicado en  DPL News https://dplnews.com/trump-quiere-limpiar-gaza-para-establecer-ciudad-ia/ Donald Trump quiere “limpiar” Gaza para esta...