martes, 8 de julio de 2025

A «publicar o perecer», ¿hay que añadir «IA o morir»?

Publicado en THE Times Higher Education
https://www.timeshighereducation.com/opinion/publish-or-perish-do-we-need-add-ai-or-die?fbclid=IwY2xjawLKi0FleHRuA2FlbQIxMQBicmlkETFrZWJUQThjckdGUVBTTXFqAR4qBavY0bp-AGVXobudm-zud1_2XuwtH13TPES_toFv0kHtaAN40Hxa9nf0nQ_aem_TjDGzobbHeKpf4ETYeH15g



A «publicar o perecer», ¿hay que añadir «IA o morir»?

La revolución de la cointeligencia está cambiando silenciosamente el significado de la excelencia académica y quién puede alcanzarla, afirma Jakub Drábik

28 de mayo de 2025

Jakub Drábik


Muchos centroeuropeos están familiarizados con un sentimiento particular. Surge cuando, al escuchar a un académico británico o estadounidense en una conferencia o seminario, te das cuenta de que, por muchos libros que leas o por muy sólidas que sean tus ideas, nunca hablarás o escribirás en inglés con tanto estilo o seguridad como ellos.

Su dominio nativo de la lengua franca del mundo académico, su educación de élite y su inmersión temprana en las normas académicas les confieren una especie de ventaja estructural con la que los demás aprenden a convivir, pero que rara vez pueden superar.


O eso creía.


Últimamente he estado experimentando con la IA generativa, no para externalizar mi pensamiento, sino para perfeccionar mi forma de comunicarlo. ¿El resultado? Mi escritura es ahora más rápida, clara y precisa. Es una sensación extraña: Sigo siendo yo, pero con una especie de exoesqueleto intelectual.


Sin embargo, mi experiencia -que seguramente dista mucho de ser única- plantea una pregunta incómoda: ¿la regla de oro de la supervivencia académica -publicar o perecer- se ha complementado ahora con otra: AI o morir?


No quiero decir que la IA vaya a sustituir a los académicos (al menos, espero que no lo haga). Pero podría cambiar radicalmente el aspecto de la excelencia académica, cómo se consigue y quién alcanza el máximo nivel. Y eso merece un análisis más detenido.


Uno de los cambios más visibles de las herramientas de inteligencia conjunta es la silenciosa redistribución del trabajo cognitivo. Tareas que antes exigían un esfuerzo minucioso -redactar frases incómodas, traducir ideas al inglés académico, redactar esquemas- ahora pueden semiautomatizarse. La claridad y la velocidad ya no dependen únicamente de la habilidad personal o de la fluidez lingüística, sino de la fluidez con la que se puede dirigir y dar forma a los resultados de grandes modelos lingüísticos. Y si lo que hoy llamamos «excelencia» es, en parte, la capacidad de producir textos limpios y persuasivos de forma eficiente, entonces la excelencia puede llegar a compartirse de forma más equitativa.


Sin embargo, el impacto de la IA en la equidad tiene sus límites. Los académicos de instituciones con pocos recursos pueden tener dificultades para acceder a los mismos beneficios. Lo mismo puede ocurrir con los que trabajan en lenguas que no están bien adaptadas a los modelos convencionales de IA. Y los que carecen de conocimientos técnicos o se sienten molestos por la ausencia de normas claras para el uso de la IA también pueden quedarse atrás.


En cuanto a esas normas, todo el mundo parece estar de acuerdo en que el autor debe seguir siendo responsable del contenido, independientemente del grado de implicación de la IA. Pero no hay consenso sobre cómo integrar estas herramientas en el proceso de escritura o cómo -o incluso si- reconocer su contribución.


En mi opinión, la alfabetización en IA no debería tratarse como un complemento técnico, sino como una competencia académica básica, al mismo nivel que la alfabetización informacional o la evaluación de fuentes. Algunas universidades, sobre todo en el Reino Unido y Estados Unidos, ya lo han aceptado y han creado programas de alfabetización en IA para ayudar a los colegas más cautos o abrumados a ponerse al nivel de los primeros en adoptarla (a menudo se cita la iniciativa de la Universidad Estatal de Arizona).


Pero otras instituciones, sobre todo de Europa Central y Oriental, siguen dudando y siguen considerando que el uso de la IA es sospechoso o incluso poco ético. Algunas revistas y comités de ética también se han mostrado cautos. Y en medio de tanta incertidumbre, la política no oficial ha pasado a ser la siguiente: utilícela si quiere, pero no hable demasiado alto de ella; al menos, no en las reuniones.


Pero si aceptamos, como debemos, que el uso de la IA es inevitable, tenemos que lidiar con la cuestión fundamental de qué, exactamente, sigue siendo «nuestro» en el trabajo que producimos cuando la redacción, la estructura e incluso parte del andamiaje intelectual se genera conjuntamente con la IA.


Como han argumentado filósofos de la tecnología como Shannon Vallor o David J. Gunkel, el conocimiento coproducido desafía el marco profundamente individualista de la autoría sobre el que descansa el prestigio académico. Puede que también tengamos que replantearnos los conceptos de originalidad e incluso de contribución intelectual.


Centrarlos en la síntesis, el juicio y la dirección podría tener sentido, pero no tengo respuestas. De hecho, ni siquiera estoy seguro de entender del todo el terreno en el que nos estamos adentrando. Pero si no mantenemos los ojos abiertos y no nos ocupamos de las implicaciones de hacia dónde vamos -éticas, pedagógicas e institucionales-, puede que nos encontremos con que no sólo ha cambiado la distribución, sino el significado mismo de la excelencia académica, mientras nosotros seguimos discutiendo sobre si debería hacerlo.


Jakub Drábik es profesor de Historia en la Universidad Angloamericana de Praga e investigador principal en el Instituto de Historia de la Academia Eslovaca de Ciencias.



/////////////////////////////////////////////////


To ‘publish or perish’, do we need to add ‘AI or die’?The co-intelligence revolution is quietly reshaping what academic excellence means – and who can attain it, says Jakub Drábik

May 28, 2025

Jakub Drábik


There’s a particular sinking feeling that many Central Europeans are no doubt familiar with. It arises when, listening to a British or American scholar at a conference or seminar, you realise that no matter how many books you read or how solid your ideas are, you will never speak or write as stylishly or confidently in English as they do.

Native fluency in academia’s lingua franca, elite education and early immersion in academic norms give them a kind of structural advantage – one that others learn to live with but can rarely overcome.  

Or so I thought.

Lately, I’ve been experimenting with generative AI – not to outsource my thinking but to sharpen how I communicate it. The result? My writing has become faster, clearer and more precise. It’s a strange feeling: I’m still me, but with a kind of intellectual exoskeleton.

My experience – which is surely far from unique – raises an uncomfortable question, however: has the golden rule of academic survival – publish or perish – now been supplemented by another – AI or die?  

I don’t mean that AI will replace scholars (at least, I hope it won’t). But it could fundamentally reshape what academic excellence looks like, how it’s achieved, and who gets to perform at the top level. And that deserves a closer look.

One of the most visible changes brought by co-intelligence tools is the quiet redistribution of cognitive labour. Tasks that once demanded painstaking effort – rewording awkward phrases, translating ideas into academic English, drafting outlines – can now be semi-automated. Clarity and speed are no longer tied solely to personal skill or linguistic fluency but to how fluently you can direct and shape the output of large language models. And if what we currently call “excellence” is in part the ability to produce clean, persuasive texts efficiently, then excellence potentially stands to be more equitably shared. 

There are limits to AI’s impact on equity, however. Scholars in under-resourced institutions may struggle to access the same benefits. So may those working in languages not well supported by mainstream AI models. And those who lack technical proficiency or who are disturbed about the absence of clear norms for AI use may also be left behind.

Regarding those norms, everyone seems to agree that the author must remain responsible for the content, regardless of how much AI was involved. But there is no consensus about how to integrate these tools into the writing process or how – or even whether – to acknowledge their contribution.  

In my view, AI literacy should be treated not as a technical add-on but as a core academic competency – on a par with information literacy or source evaluation. Some universities, particularly in the UK and US, have already accepted that and have established AI literacy programmes to help more cautious or overwhelmed colleagues catch up with the early adopters – Arizona State University’s initiative is often cited.

But other institutions, particularly in Central and Eastern Europe, remain hesitant, still seeing AI use as suspect or even unethical. Some journals and ethics boards have also been cautious. And amid such uncertainty, the unofficial policy has become: use it if you want to, but don’t talk about it too loudly – at least, not in meetings.

But if we accept, as we must, that AI usage is inevitable, we must grapple with the fundamental question of what, exactly, is still “ours” in the work we produce when the wording, structure and even some of the intellectual scaffolding is co-generated with AI.  

As philosophers of technology, such as Shannon Vallor or David J. Gunkel, have argued, co-produced knowledge challenges the deeply individualistic framework of authorship on which academic prestige rests. We may also need to rethink the concepts of originality and even intellectual contribution.

Centring them on synthesis, judgement and direction might make sense, but I don’t have answers. In fact, I’m not even sure I fully understand the terrain we’re entering. But if we fail to keep our eyes open and engage with the implications of where we are going – ethical, pedagogical and institutional – we may find that not just the distribution but the very meaning of academic excellence has already shifted, while we are still arguing over whether it should.

Jakub Drábik is lecturer in history at the Anglo-American University in Prague and senior research fellow in the Institute of History at the Slovak Academy of Sciences.






*****************************************

No hay comentarios:

Publicar un comentario

A «publicar o perecer», ¿hay que añadir «IA o morir»?

Publicado en THE Times Higher Education https://www.timeshighereducation.com/opinion/publish-or-perish-do-we-need-add-ai-or-die?fbclid=IwY2x...