Publicado en blog Hipermediaciones
https://hipermediaciones.com/2026/02/22/economia-politica-del-paper-la-gran-implosion/?fbclid=IwdGRzaAQIzJRleHRuA2FlbQIxMQBzcnRjBmFwcF9pZAwzNTA2ODU1MzE3MjgAAR5uYejX4BYSfK46O3Fet8_E3n9RBB0QYz0YRuEfz4EMV6rrgl_KeRgm2lF8AQ_aem_Q7d-yIE_8pSJ8i1cS_BmYw&sfnsn=scwspwa
Publish or perish (“publica o perece”) es la expresión que resume el principio organizador de buena parte de la carrera académica moderna: para conseguir y mantener empleo, promoción, financiación y reputación, el investigador debe publicar de forma continua en revistas indexadas, mejor si son del primer cuartil (el mítico Q1). No se trata solo de “comunicar resultados”, sino de cumplir un umbral de productividad medible: número de artículos, calidad percibida del lugar de publicación, citas, impacto, posiciones de autoría, etc. Todo suma. En esa lógica, “perecer” significa quedar fuera de la competencia: no obtener becas o proyectos, no estabilizarse, no ascender, no ser visible en el campo. La desaparición científica.
“Publish or perish” resume cómo el sistema científico se ha ido racionalizando alrededor de indicadores y procedimientos (evaluaciones periódicas, rankings, auditorías, acreditaciones) que convierten la publicación en moneda de cambio. Esto puede tener efectos positivos (incentivar la difusión, estandarizar criterios, aumentar circulación de conocimiento), pero genera tensiones más que conocidas: prioridad a lo rápido y “publicable”, aversión al riesgo (menos investigación exploratoria), presión por fragmentar resultados, saturación del peer review y estrés, mucho estrés, especialmente en las fases iniciales de la carrera científica.
Efecto ANECAEn España, este sistema fue adoptado por las agencias de evaluación hace dos décadas, en el marco de un rediseño del espacio universitario europeo (sí, estoy hablando del proceso de Bolonia). El “efecto ANECA” se hizo sentir en la comunidad científica, sobre todo en disciplinas menos acostumbradas a este tipo de dinámica (por ejemplo, en algunas ciencias sociales y las humanidades). Antes de la adopción de las mediciones cuantitativas, la promoción de investigadores y profesores se realizaba, en buena parte y dejando de lado las excepciones, en función de las amistades y la gastronomía local. A nadie se le negaba un ascenso académico si había una larga amistad y un buen plato de paella de por medio. La adopción del hoy denostado sistema cuantitativo de evaluación introdujo una mínima cuota de objetividad en los procesos y le atragantó el almuerzo a más de un comité evaluador.
Ahora, las agencias europeas y españolas están promoviendo el llamado “currículum narrativo”. Dejamos el Excel y pasamos al Word. Veamos de qué se trata.
Había una vez…Si currículum “de métricas” privilegiaba los números, un currículum narrativo es una forma de presentar la trayectoria académica y científica contándola como una historia argumentada: qué problemas han guiado el recorrido científico, cómo han evolucionado esas líneas de trabajo, cuáles han sido los aportes más relevantes del investigador, qué impacto han tenido (no solo en revistas indexadas: también a nivel social, docente o tecnológico) y por qué ciertas decisiones (cambios de tema, pausas, colaboraciones, interdisciplinariedad) fueron tomadas. Ahí donde el currículum tradicional infería el mérito por indicadores comparables, el narrativo sostiene que el mérito requiere interpretación, porque muchas contribuciones valiosas (transferencia, docencia, liderazgo, trabajo en equipo, impacto local) no se capturan bien con métricas o pueden quedar distorsionadas.
Este es el sistema que tenemos, con sus tensiones, ventajas, limitaciones y tensiones.
Bien, todo eso está a punto de irse al carajo.
CCCB – Big Data Bang (2014) Economía política del paperEl sistema de producción, circulación y evaluación científica está a punto de colapsar. Si lo analizamos con el modelo de la economía política, podemos afirmar que el coste de producir un artículo científico se reduce cada semana. El uso de las inteligencias artificiales para definir objetivos y preguntas de investigación, construir marcos teórico y metodológicos, procesar datos, extraer conclusiones y redactar un informe (acompañado de sus tablas, figuras y bibliografía) se extiende y lleva a un incremento exponencial de la producción en todas las disciplinas, desde la matemática y la física hasta las ciencias sociales. El fenómeno no es nuevo -ver «Growth rates of modern science» del 2021-, pero las IA lo estan hiperacelerando hasta límites impensables.
“Los modelos de IA de frontera -en concreto, Gemini Deep Think y sus variantes avanzadas- han superado un umbral crítico. Ya no son meras herramientas para la automatización rutinaria, el procesamiento de datos o el formateo sintáctico; ahora son capaces de actuar como auténticos colaboradores de nivel experto en el descubrimiento matemático y algorítmico. A través de la informática teórica, la economía, la física y la optimización, hemos mostrado que los LLM pueden resolver activamente conjeturas abiertas, ajustar cotas matemáticas mantenidas durante décadas y localizar teoremas oscuros y transdisciplinares para sortear bloqueos que frenan a los investigadores humanos” (AAVV, “Accelerating Scientific Research with Gemini: Case Studies and Common Techniques”, 2026).
Las ciencias sociales y las humanidades no quedan al margen de esta hiperproducción académica potenciada por las inteligencias artificiales. Un joven politólogo, Yascha Mounk, contaba en estos días su experiencia.
“Mucha gente que conozco, especialmente en las humanidades, sigue en una profunda negación respecto del estado de esta tecnología. Quizá la forma más común en que desestiman su importancia es afirmar que los modelos de inteligencia artificial no son inteligentes ni creativos. Claro, dicen: ‘esos loros estocásticos pueden hacer cosas impresionantes como resumir un correo electrónico o redactar lenguaje corporativo estándar; pero son congénitamente incapaces de realizar una contribución intelectual o artística genuina.’ A menudo, quienes sostienen este argumento no tienen muy claro qué entienden por inteligencia o creatividad, y van cambiando de postura cuando se les presiona para que definan los términos (…) No quiero quedar atrapado en un debate semántico estéril sobre cómo usar esas palabras (…) Hace unos días, decidí comprobar si los modelos de inteligencia artificial más recientes serían capaces de escribir un artículo académico competente en mi campo de estudio, la teoría política. El resultado me alegró y me deprimió a la vez” (Y. Mounk, “The Humanities Are About to Be Automated”, 2026 – Se puede consultar el resultado de su experimento en la misma página).
La evaluación científica en la era de los LLM
La hiperproducción de artículos científicos está llevando al colapso de las publicaciones científicas. Ya no solo tardan cada vez más en dar una respuesta a los ansiosos autores: directamente rechazan textos por no tener tiempo de darles ni siquiera una rápida ojeada (nos pasó esta semana). Antes, por lo menos, te decían que el artículo “no encaja con los objetivos (o la metodología) del journal”. El correo que nos mandó el editor sudaba frustración. Además, no hay revisores suficientes para tantos papers. El viernes recibí tres propuestas de revisión. Con suerte, aceptaré una. Lo mismo está pasando con los grandes congresos científicos: la cantidad de ponencias recibidas aumenta de manera constante. Sinceramente, no quisiera estar en la botas de un editor científico o del organizador de un congreso. El riesgo de morir aplastado por la masa textual es muy alto.
“Los modelos de lenguaje (LLM) han comenzado a transformar la producción científica. Estos cambios anticipan un panorama de investigación en evolución, en el que el valor de la fluidez en inglés disminuirá, pero en el que la importancia de marcos sólidos de evaluación de la calidad y de un escrutinio metodológico profundo es fundamental. Para los revisores por pares, los editores de revistas y la comunidad en general -quienes producen, consumen y aplican este trabajo-, esto representa un asunto de gran relevancia. Como atajo para filtrar (de manera imperfecta) la investigación científica, las características de la escritura están volviéndose rápidamente señales poco informativas, justo cuando se dispara la cantidad de comunicaciones científicas A medida que las heurísticas tradicionales se debilitan, editores y revisores podrían apoyarse cada vez más en marcadores de estatus -como el pedigrí del autor y la afiliación institucional- como señales de calidad, lo que irónicamente contrarrestaría los efectos democratizadores de los LLM en la producción científica” (AAVV, “Scientific production in the era of large language models”, Science, 2025).
¿Qué hacer?
Si la comunidad científica utiliza las inteligencias artificiales para acelerar la investigación y generar más materia textual, a la hora de evaluar esa producción se perfilan dos soluciones. Veamos la primera: cambiar la sintaxis. Lo explico. Hasta ahora, la evaluación de los artículos científicos se realizaba antes de la publicación; en el nuevo esquema, siguiendo la lógica de lo que ya sucedió en la esfera informativa, primero se publica y después se evalúa. El ejemplo más claro es https://arxiv.org/, un servicio gratuito de distribución y archivo de acceso abierto que (hoy) incluye cerca de 2,4 millones de artículos en los campos de la física, las matemáticas, la informática, la biología, las finanzas, la estadística, la ingeniería, la economía y la ciencia de sistemas. La web aclara desde el vamos: “los materiales de este sitio no han sido sometidos a revisión por pares por parte de arXiv”. Publish and pray.

Allá por 2008 Clay Shirky había descrito esta inversión en su clásico libro Here Comes Everybody. Según Shirky, las redes digitales transformaron de raíz las lógicas del viejo periodismo al invertir los procesos tradicionales. En el siglo XXI, la consigna es “publish, then filter”.
«El orden de las cosas en el broadcasting es filtrar y luego publicar. El orden en las comunidades es publicar y luego filtrar. Si vas a una cena, no envías tus posibles comentarios a los anfitriones para que te digan cuáles son lo suficientemente buenos como para decirlos ante el grupo; pero así es como funciona el broadcasting todos los días. Los escritores envían sus historias con antelación para que sean editadas o rechazadas antes de que el público las vea. Los participantes de una comunidad, en cambio, dicen lo que tienen que decir, y después lo bueno se separa de lo mediocre. La gente de los medios suele criticar el contenido en internet por no estar editado, porque por todas partes hay baja calidad: mala escritura, imágenes feas, diseño pobre. Lo que no entienden es que internet está fuertemente editado, pero el juicio editorial se aplica en los bordes, no en el centro, y se aplica después de publicado, no de antemano» (C. Shirky, Here Comes Everybody, 2008).
Otra posible solución consiste en utilizar las inteligencias artificiales en los procesos de evaluación. Si millones de científicos utilizan las inteligencias artificiales para incrementar su producción textual, la otra forma de lidiar con esa montaña de documentos es recurriendo a las mismas armas.
“Una posible respuesta consiste en aprovechar la misma tecnología para ayudar a evaluar manuscritos. ‘Agentes revisores’ especializados podrían señalar inconsistencias metodológicas, verificar afirmaciones e incluso evaluar la novedad. Que este enfoque escalable ayude a editores y revisores a centrarse en el fondo más que en señales superficiales, o que introduzca desafíos nuevos e imprevistos en el proceso científico, es una incertidumbre crítica” (AAVV, “Scientific production in the era of large language models”, Science, 2025).
Entre el colapso y la reimaginación radical
Ambas soluciones -cambio de sintaxis o incorporación de las inteligencias artificiales en los procesos de evaluación- tienen sus ventajas y desventajas. En el primer caso, entran en circulación textos sin ningún tipo de revisión. Eso está pasando con buena parte de la producción científica sobre la misma inteligencia artificial: se publican infinidad de artículos por día comparando modelos de LLM de los cuales siempre emerge uno como ganador. A las pocas horas, algunos de esos estudios se vuelven virales en las redes sociales, potenciados por las corporaciones que los financiaron. Los límites entre la investigación científica y las operaciones de marketing tienden a diluirse. Lo que se gana en tiempo se pierde en verificación.
La otra solución -incorporar las inteligencias artificiales a los procesos de evaluación- nos lleva al tema de los sesgos y alucinaciones de los LLM. Una inteligencia artificial podría dejar fuera de circulación un aporte científico relevante debido a las limitaciones de entrenamiento. Ahora bien, dado que la evaluación por pares también está plagada de sesgos y subjetividades, quizás este sistema sea el menos malo como alternativa. Una inteligencia artificial bien entrenada -y subrayo lo de «bien entrenada»- podría ayudar a filtrar una masa textual que no para de crecer. Los que no quieran ser sometidos a la AI-review, siempre pueden optar por la publicación en abierto sin revisión. En cualquiera de los dos casos, el sistema actual de producción, circulación y evaluación está a punto de colapsar.
“En cierto sentido, la era de la inteligencia artificial hará que las humanidades sean más importantes que nunca. Disciplinas que van de la literatura a la filosofía son necesarias para ayudarnos a responder preguntas sobre cómo podemos encontrar un lugar en el mundo cuando se nos necesita mucho menos que antes, y sobre qué significa ser humano cuando ya no somos los únicos capaces de hacer algunas de las cosas de las que, en otro tiempo, nuestra especie era la única capaz. Pero en un momento en que la inteligencia artificial puede saltar, con una facilidad cada vez mayor, a través de los aros que durante las últimas décadas han llegado a definir una carrera académica en las humanidades, resulta imprescindible una reimaginación radical de cómo buscamos y transmitimos conocimiento significativo en estos campos” (Y. Mounk, “The Humanities Are About to Be Automated”, 2026).
Otras implosionesVolvamos a los currículum. Si la evaluación cuantitativa generó la burbuja de papers que, inteligencia artificial de por medio, alcanzará dimensiones galácticas, el curriculum narrativo también es pasto de ChatGPT. No hay nada más divertido que pasarle a la criatura de OpenAI un viejo currículum cuantitativo y pedirle que lo convierta en el viaje del héroe de Vladimir Propp. Nace un nuevo género que enloquecería a los formalistas rusos: la ficción académica. No me extrañaría que en un par de años vuelvan a solicitarnos un curriculum con publicaciones Q1, índices de impacto y número citaciones. Retorno al Excel después de una temporada con el Word.
Para terminar, recordemos que el colapso de la producción científica es solo uno de los frentes que tenemos abiertos. Hoy solo escribí sobre papers e investigadores. Otro día hablaremos de los mecanismos de evaluación de los estudiantes y lo que está pasando dentro de las aulas. Como diría el recordado Robert Duval, esto huele a napalm.
La imagen de portada es una reelaboración hecha con IA de la instalación presentada en el exposición del CCCB «Big Bang Data» (2014).


