Mostrando entradas con la etiqueta Evaluación científica. Mostrar todas las entradas
Mostrando entradas con la etiqueta Evaluación científica. Mostrar todas las entradas

lunes, 30 de octubre de 2023

LIBRO: Metodología para la evaluación de la ciencia en acceso abierto digital diamante

Publicado en CLACSO
https://libreria.clacso.org/publicacion.php?p=2979&c=58



Metodología para la evaluación de la ciencia en acceso abierto digital diamante
Eduardo Aguado-López. Arianna Becerril-García. Alejandro Macedo García. Sheila Godínez Larios. Liliana González Morales. [Autores/as]
El futuro del Acceso Abierto no comercial requiere de otras formas de evaluación: distintas, posibles y situadas. En este sentido, el presente trabajo plantea un marco conceptual y metodológico para caracterizar el conocimiento publicado en Acceso Abierto Digital Diamante










miércoles, 13 de septiembre de 2023

ESPAÑA se rebela. ANECA en la encrucijada: el final del reino del factor de impacto

Publicado en El Diario de la Educación
https://eldiariodelaeducacion.com/2023/09/12/aneca-en-la-encrucijada-el-final-del-reino-del-factor-de-impacto/



ANECA en la encrucijada: el final del reino del factor de impacto

por Luis Mariano Torrego Egido
María Verdeja
Ana de Castro
Enrique Díez
12/09/2023



Hasta ahora el sistema de evaluación y acreditación de la carrera profesional del profesorado universitario la realiza la ANECA (Agencia Nacional de Evaluación de la Calidad y la Acreditación) premiando la acumulación de publicaciones cuantificables y comercializables.

Este sistema ha consolidado un modelo de universidad y de ciencia que se caracteriza por basarse en el factor de impacto y por la utilización de los rankings de revistas como criterio principal de evaluación de la investigación. En otras palabras, el éxito científico consiste en publicar artículos (papers) en revistas “internacionales” indexadas en los primeros cuartiles de los rankings bibliométricos derivados de la Web of Science (JCR) o Scopus (SJR), establecidos por dos multinacionales extranjeras, Clarivate y Elsevier.


Este sistema no profundiza en el valor de los artículos en sí, ni en su relevancia científica o social. Además, ha fomentado una extraordinaria competitividad en el seno de las universidades para aumentar la cantidad de papers en las clasificaciones y ha propiciado prácticas faltas de ética que han sido noticia: investigadores que reciben dinero por figurar en el plantel de instituciones universitarias de Arabia Saudí para que éstas asciendan en los rankings o que publican un artículo “científico” cada 37 horas.

Se ha generado así un innegable proceso de capitalismo académico, caracterizado por el oligopolio de las grandes editoriales y distribuidoras de la producción científica, el incremento de los costes por publicación —los autores o sus instituciones pagan por publicar sus artículos— y las conductas oportunistas de buena parte de las multinacionales de las revistas científicas.

Por otra parte, esta espiral de inflación de papers que casi nadie lee, pero que es el “patrón oro” de nuestro sistema de evaluación, ha llevado a convertir la función docente, esencial en la universidad, en un obstáculo para la promoción académica, una “carga docente”. Lo cual devalúa una finalidad clave de la universidad que es proporcionar una formación de calidad a su alumnado.

Además, este modelo incumple los acuerdos internacionales que en materia de ciencia han sido suscritos por los organismos oficiales españoles, desde la Declaración de San Francisco sobre la evaluación científica (DORA), hasta el Manifiesto de Leiden sobre indicadores de investigación, pasando por la Iniciativa Helsinki sobre multilingüísmo en la comunidad científica, así como los principios de CoARA.

Frente a este enfoque productivista y mercantil, necesitamos un modelo de universidad pública al servicio del bien común y comprometida socialmente, así como un sistema de evaluación y acreditación del profesorado universitario que responda a un modelo de ciencia abierta para el bien común.

Por eso el colectivo de profesorado universitario, Uni-Digna, en reunión con la nueva directora de la ANECA, le ha trasladado la urgencia de dar pasos decididos, de una forma negociada y consensuada con los representantes de la comunidad académica universitaria, para establecer un sistema de evaluación de la docencia y de la investigación más justo, que responda a este modelo de ciencia para el bien común, concretados en cuatro propuestas:

  • Que la acreditación del profesorado descarte el uso de métricas basadas en revistas, en especial el denominado factor de impacto.
  • Que colabore en la configuración de una Ciencia Abierta Pública, que elimine los acuerdos transformativos que están suscribiendo las universidades públicas con las editoras transnacionales para financiar con dinero público la publicación de papers (APC: cargos por procesamiento de artículos) que exigen las revistas privadas.
  • Evaluar, desde una visión global, la investigación, concediendo un peso fundamental a su impacto social, para que contribuya a una ciencia para una sociedad sostenible e inclusiva y comprometida con los derechos de los colectivos más vulnerables.
  • Potenciar la investigación de relevancia local y democratizar la evaluación, poniendo en marcha, entre otras medidas, un proceso independiente, democrático y participativo para evaluar “el sistema de evaluación”.

* Colectivo Uni-Digna: Luis Torrego (catedrático de la Universidad de Valladolid); María Verdeja (profesora contratada doctora de la Universidad de Oviedo); Ana de Castro (profesora de la Universidad La Florida – Valencia) y Enrique-Javier Díez-Gutiérrez (profesor titular de la Universidad de León). Forman parte del Colectivo Uni-Digna, colectivo compuesto por profesorado de diversas ramas de conocimiento de las universidades públicas españolas que se han unido para reivindicar un sistema de evaluación y acreditación del profesorado universitario comprensivo, razonable y justo. Su web: https://unidigna.wordpress.com/



miércoles, 9 de agosto de 2023

UK: críticas al nuevo modelo de evaluación británico

Publicado en Nature
https://www.nature.com/articles/d41586-023-02469-w 


Se reforma la evaluación de la investigación en el Reino Unido, pero los cambios no dan en el clavo


El paso del rendimiento individual al institucional en el próximo ejercicio del Marco de Excelencia en Investigación es bienvenido, pero ignora las realidades del mundo académico.


Richard Watermeyer, Gemma Derrick y Kate Sang


El 15 de junio se propusieron normas actualizadas para la próxima ronda del Marco de Excelencia en Investigación (REF), el sistema de evaluación utilizado para distribuir entre las universidades británicas unos 2.000 millones de libras (2.500 millones de dólares) de financiación anual. Las cuatro agencias de financiación de la enseñanza superior del Reino Unido las dieron a conocer.


A primera vista, los cambios previstos parecían reconocer mejor los resultados de la investigación que no se limitan a los convencionales, como publicaciones y libros.


Pero una lectura más atenta revela que no está tan en sintonía con las realidades de la investigación académica. Como investigadores en educación que, durante años, hemos seguido y escrito sobre las deficiencias del REF (written about the REF’s shortcomings), pensamos que los responsables políticos están siendo ingenuos tanto ante las realidades de la cultura investigadora del Reino Unido como ante el riesgo de causar más problemas de los que resuelven.


Las normas propuestas para el próximo REF, que concluirá en 2028, se basan en las conclusiones del Future Research Assessment Programme (FRAP), un programa de investigación y evaluación de los organismos de financiación del Reino Unido. El FRAP incluye un informe elaborado por un grupo de asesores internacionales, presidido por el ex asesor científico jefe de Nueva Zelanda, Peter Gluckman.


Las 13 recomendaciones de los asesores siguen considerando el REF como un instrumento fundamental para determinar la financiación de la investigación universitaria, pero reconocen que puede deformar la cultura de la investigación a través de incentivos perversos, como una excesiva dependencia de las métricas de publicación para evaluar la valía de un investigador.


Su informe proponía aumentar la contribución a la puntuación global del REF de las métricas que reconocen lo bien que una institución apoya la investigación, y reducir la ponderación de los resultados de la investigación convencional. Las recomendaciones fueron aprobadas por los organismos de financiación el 15 de junio.


Sin embargo, creemos que las recomendaciones y los cambios propuestos son erróneos. Lejos de conducir a un sistema más holístico y equitativo de evaluación de la investigación, estas orientaciones podrían dar lugar a una mayor degradación de la cultura de la investigación en las instituciones de enseñanza superior del Reino Unido.


Reglas de la REF


Las normas propuestas consideran cómo los intentos de las universidades de explotar las normas de la REF en su propio beneficio pueden ser perjudiciales para las condiciones de trabajo de los individuos, y los asesores piden "desplazar la carga de un enfoque centrado en el individuo a la institución".


Esta forma de pensar es encomiable. En la práctica, sin embargo, es imposible obviar la contribución individual a la investigación durante los preparativos de una universidad para el REF. Las universidades están formadas por individuos, y la investigación se motiva y evalúa sobre todo de forma individual.


Las orientaciones también recomiendan que el REF sea más inclusivo, haciendo que las contribuciones de todos los investigadores puedan ser evaluadas. El objetivo es eliminar los efectos perjudiciales para los investigadores que no son seleccionados para la presentación, un problema importante del primer ejercicio de la REF en 2014. La presentación universal se introdujo en la REF 2021, pero en la REF 2028 no habrá un número máximo o mínimo de resultados de investigación asignados a un investigador individual, siempre que se alcance un promedio en un área temática.


El problema es que las universidades probablemente volverán a ser hiperselectivas, centrándose en los miembros del personal que producen la investigación más "apta para el REF", marginando así a los demás. Además, el alejamiento de los investigadores individuales podría significar que circunstancias especiales -como la baja por paternidad- no se tuvieran en cuenta en una evaluación. A diferencia de los anteriores REF, en los que los académicos podían revelar a sus empleadores experiencias vitales y laborales a menudo complejas y angustiosas, así como discapacidades.


Defectos intrínsecos


La apuesta por romper el vínculo entre individuos e instituciones también presupone erróneamente que la cultura investigadora se limita a las instituciones individuales. La insistencia de los asesores internacionales en la "ciencia de equipo" como base de muchas de sus recomendaciones se ve contrarrestada por el hecho de que el REF se centra únicamente en la investigación británica.


A muchos académicos también les preocupará la menor contribución de sus resultados de investigación a la puntuación global del REF, que pasará del 60% en el REF 2021 al 50% en el próximo REF de 2028. Esto desatiende el estatus de las publicaciones académicas, correcto o incorrectamente, como la principal moneda en la economía del prestigio académico, y pone en riesgo el estatus global y la movilidad de los académicos del Reino Unido si se desincentiva su enfoque en los resultados.


Por último, la recomendación de los asesores de que no se haga "excesivo hincapié" en el REF a la hora de evaluar al personal o de comparar los resultados con los de otras instituciones ignora por completo el uso inevitable del REF como herramienta de gestión y clasificación. El sector británico de la enseñanza superior, como cualquier otro, está sometido a las clasificaciones. El REF sirve indiscutiblemente a esa fijación, desde luego a nivel nacional. Cualquier vistazo a las páginas web de las universidades británicas revela hasta qué punto la REF forma parte integrante del modo en que las universidades promocionan la calidad de su investigación. Además, la idoneidad de la investigación para la REF está profundamente arraigada en la psique de los académicos británicos y en cómo valoran su trabajo y el de los demás. Se necesitan aportaciones de iniciativas de base para romper esta cultura, no sólo mediante la imposición de normas de arriba abajo.


Fundamentalmente, las normas de la REF son elaboradas por personas cada vez más alejadas de las condiciones de trabajo que experimenta el investigador medio. Por lo tanto, los esfuerzos para limitar los efectos nocivos de la REF en los individuos sólo sirven para aumentar su exposición a la precariedad laboral y la degradación de la cultura de la investigación. Hasta que las voces de la mayoría de los académicos no sean escuchadas y atendidas, la modernización del REF no será más una reforma cultural que un retroceso. Hasta entonces, este no es nuestro REF: es (todavía) el suyo.


*************************************




  • 31 July 2023

UK research assessment is being reformed — but the changes miss the mark

A shift from individual to institutional performance in the next Research Excellence Framework exercise is welcome, but ignores the realities of academia.


Richard Watermeyer, Gemma Derrick & Kate Sang


On 15 June, updated rules were proposed for the next round of the Research Excellence Framework (REF), the assessment system used to distribute around £2 billion (US$2.5 billion) of annual funding across UK universities. These were unveiled by the United Kingdom’s four higher-education funding agencies.

At first sight, the planned changes seemed to better recognize research outputs that are not just limited to conventional ones such as publications and books.

But a closer reading reveals that it is not quite so attuned to the realities of academic research. As education researchers who, for years, have followed and written about the REF’s shortcomings, we think that policymakers are being naive both to the realities of UK research culture and to the risk of causing more problems than they solve.

The proposed rules for the next REF, set to conclude in 2028, are built on the findings of the Future Research Assessment Programme (FRAP), a programme of research and evaluation from UK funding bodies. FRAP includes a report by a group of international advisers, chaired by New Zealand’s former chief scientific adviser Peter Gluckman. 

The advisers’ 13 recommendations still regard the REF as a core way of determining university research funding, but acknowledge that it can warp research culture through perverse incentives such as an over-reliance on publication metrics to assess a researcher’s worth.

Their report proposed an increase in the contribution to the overall REF score of metrics that recognize how well an institution supports research, and a drop in the weighting of conventional research outputs. The recommendations were adopted by the funding bodies on 15 June.

However, we argue that the recommendations and proposed changes repeatedly miss the mark. Far from leading towards a more holistic and equitable system of research assessment, this guidance might result in the further degradation of research culture in UK higher-education institutions. 

‘REF-ability’ rules

The proposed rules consider how universities’ attempts to exploit REF rules for their own advantage can be detrimental to the working conditions of individuals, with the advisers calling for “shifting the burden away from a focus on the individual to the institution”.

Such thinking is commendable. In practice, however, it is impossible to avoid an individual’s research contribution during a university’s preparations for the REF. Universities are made up of individuals, and research is mostly individually motivated and assessed.  

The guidance also recommends making the REF more inclusive by making contributions from all researchers eligible for assessment. The aim here is to remove the detrimental effects for researchers who are not selected for submission — a major problem of the first REF exercise in 2014. Universal submission was introduced in REF 2021, but in REF 2028 there will be no maximum or minimum number of research outputs attached to any individual researcher, provided an average is met across a subject area.

The problem is that universities will still probably return to being hyper-selective, focusing on members of staff who produce the most ‘REF-able’ research, thereby marginalizing others. Moreover, the shift away from individual researchers could mean that special circumstances — such as parental leave — might not be considered in an assessment. This is unlike previous REFs, in which academics could disclose often complex and distressing life and work experiences, as well as disabilities, to their employers. 

Inherently flawed

A bid to break the link between individuals and institutions also wrongly assumes that research culture is limited to single institutions. The international advisers’ emphasis on ‘team science’ as the basis for many of their recommendations is counteracted by the fact that the REF focuses only on UK research.

Many academics will also be concerned by the lower contribution of their research outputs towards an overall REF score, which will drop from 60% in REF 2021 to 50% for the next REF in 2028. This neglects the status of scholarly publications, rightly or wrongly, as the main currency in academia’s prestige economy, and risks the global status and mobility of UK academics if their focus on outputs is disincentivized. 

Finally, the advisers’ recommendation that the REF should not be given “excessive emphasis” in evaluating staff or benchmarking performance against other institutions completely ignores the REF’s inevitable use as a management and ranking tool. The UK higher-education sector, much like every other, is in thrall to rankings. The REF indisputably serves such a fixation, certainly at a national level. Any look at UK university websites reveals how integral the REF is in the way in which universities promote the quality of their research. Moreover, the REF-ability of research is deeply ingrained in the psyche of UK academics and how they value their, and others’, work. Input from grass-roots initiatives are needed to break this culture, not just through imposing top-down rules.

Fundamentally, the REF’s rules are made by people who are increasingly distanced from the working conditions experienced by the average researcher. Thus, efforts to limit the harmful effects of the REF on individuals serve only to further their exposure to occupational precarity and the degradation of research culture. Until the voices of the majority of academics are heard and responded to, modernizing the REF will be no more cultural reform than retrogression. Until then, this is not our REF: it is (still) theirs.

doi: https://doi.org/10.1038/d41586-023-02469-w

lunes, 17 de julio de 2023

Políticas nacionales de ciencia y tecnología y evaluación científico-académica ¿no deberían ir de la mano?

Políticas nacionales de ciencia y tecnología y evaluación científico-académica ¿no deberían ir de la mano?



Viviana Martinovich
Editora ejecutiva, revista científica Salud Colectiva; directora editorial, colección de libros Cuadernos del ISCo; docente-investigadora, Instituto de Salud Colectiva, Universidad Nacional de Lanús.


Durante más de 200 años, las revistas científicas han sido el dispositivo central del diálogo integrador y cosmopolita de las ciencias. Pero desde la segunda mitad del siglo XX, gobiernos de distintas latitudes y colores políticos adoptaron ciertas reglas del libre mercado creadas por grandes monopolios industriales, y asociaron la evaluación de la producción escrita de las ciencias a indicadores de “calidad” científica creados a medida para asegurar el primado del complejo científico-industrial de países industrializados, por lo que el artículo científico y, por ende, las propias investigaciones se tornaron moneda de cambio para un ascenso meritocrático, y se distanciaron de las políticas nacionales de ciencia y tecnología. En este contexto, diversas instituciones y países –como China, Francia y la Comisión Europea– comenzaron a promover el abandono de los indicadores de citación corporativos para privilegiar las agendas científicas nacionales y el impacto social de las investigaciones. ¿Qué posición van a adoptar los gobiernos de los países de América Latina? ¿Seguirán escuchando al ala más conservadora de la comunidad científica?

Que estamos en un momento de cambios, no hay duda. Hacia dónde va el cambio, está por verse. Pero lo cierto es que universidades, sociedades científicas, organismos de financiamiento, directoras y directores de revistas científicas, de más de 140 países se han proclamado en contra de los actuales sistemas de evaluación de las ciencias y adhirieron a la Declaración de San Francisco sobre la evaluación de la investigación (DORA) (1), que considera que “el contenido científico de un artículo es mucho más importante que las métricas de publicación o la identidad de la revista en la que fue publicado”. ¿Qué significa esto?

Cuando una investigadora o un investigador se presentan a alguna de las tantas instancias de evaluación, por ejemplo, para obtener una beca, ingresar a un doctorado, obtener fondos para una investigación o conseguir una promoción dentro de la carrera de investigación, uno de los ítems que más peso tiene en gran parte de los países del mundo son los artículos que publicó y en qué revistas publicó esos trabajos. 

Pero esto no es nuevo: a lo largo de varios siglos, el artículo científico fue un elemento central del sistema de comunicación de las ciencias y, además, una carta de presentación. En Argentina, por ejemplo, en la década de 1870, cuando Sarmiento le pidió al naturalista alemán Germán Burmeister que use sus contactos para traer profesores de Alemania, al presentar el listado de potenciales profesores, enumeró los artículos que cada uno de ellos habían publicado en revistas científicas de la época.

Esta práctica no es la que está en cuestionamiento. Lo que está en discusión es la intromisión de la lógica de mercado en la estratificación de las ciencias a través de indicadores de “calidad” científica, que comienzan a imponerse luego de la Segunda Guerra Mundial (2). Durante los últimos 70 años, un puñado de corporaciones consolidaron un engranaje financiado por las grandes industrias químicas, alimentarias, farmacéuticas, etc., para validar científicamente sus productos a través de ciertas revistas consideradas “internacionales”, de manera que las revistas editadas por fuera de ese esquema industrial quedaran en el imaginario colectivo como revistas “emergentes” o “nacionales”, asignándole a la palabra “nacional” un carácter altamente peyorativo (3). 

Estados fuertes y débiles, Estados ricos y pobres, nortes y sures, gobiernos de derecha y gobiernos progresistas, todos compraron un esquema de evaluación basado en indicadores definidos por las mismas corporaciones que obtenían grandes ganancias, lo que fomentó un modelo de ciencia jerárquico, individualista, altamente competitivo y mercantilista. La política científica mundial parecía seguir las reglas del libre mercado y operar exclusivamente con indicadores de “calidad” científica creados a medida para asegurar el primado de un puñado de compañías, sin ningún tipo de intervención de las políticas estatales en ciencia y tecnología de cada país. 

Hace varios años atrás, decíamos que el movimiento de acceso abierto tenía la potencialidad de restituir la dimensión política al interior de un campo científico altamente mercantilizado (4). Y eso es lo que comenzó a ocurrir: esas prácticas, que fueron sostenidas y avaladas por gran parte de la comunidad científica durante años, comenzaron a ser cuestionadas fuertemente desde su núcleo central. Premios Nobel como Joseph Goldstein, Peter Doherty, Paul Nurse, Bruce Beutler (5), o Randy Schekman (6), expresaron públicamente los efectos nocivos de la competencia por las métricas; instituciones como el Consejo de Investigación del Reino Unido, la Organización Europea de Biología Molecular, la Sociedad Americana de Microbiología, la Unión Matemática Internacional (7), Wellcome Trust, entre tantas otras, comenzaron a hacer público su rechazo.

Si bien los cimientos habían comenzado a resquebrajarse, no se lograban imprimir cambios en las instancias de decisión política, que seguían relegando la toma de decisiones en manos del sector más conservador de la comunidad científica.

Sin embargo, desde que China publicó las nuevas políticas de financiación y evaluación de la investigación (8), como efecto cascada, varios países europeos y entidades que representan a la Unión Europea han seguido su camino y han decidido romper con los criterios de evaluación utilizados hasta el momento, para comenzar a delinear políticas más sustentables en términos económicos, que mejoren las formas en que se evalúan los resultados de investigación académica haciendo un esfuerzo por múltiples vías para hacer que la investigación sea más diversa, plural, transparente, cooperativa y colaborativa. 

Como señalan Shu, Liu y Larivière, China en la década de 1990 había apostado a crecer dentro de la lógica del sistema estadounidense, centrado en la alta productividad de artículos publicados en revistas indizadas en Web of Science (9). Según Matthias Wahls, este proyecto se enmarcó en una política global que China lanzó en 2004-2005 para exportar al mundo su cultura, su idioma y sus líneas de Investigación y Desarrollo. En este marco, conquistar la industria editorial y lograr publicar más trabajos que EEUU, fueron algunos de los tantos vehículos para lograr sus objetivos, que fueron acompañados del envío de multitudes de estudiantes e investigadores a universidades occidentales, y de la firma de acuerdos de cooperación académica (10). A la par de un crecimiento exponencial de su economía, según datos del National Science Board (11), las publicaciones de China casi se quintuplicaron en el período 2003-2018 y, como resultado, la producción de China, en términos de cantidad absoluta, superó a la de EEUU. China logró este crecimiento a través del otorgamiento de incentivos financieros y mayores fondos de investigación a quienes lograran publicar sus investigaciones en revistas indizadas en Web of Science (Core Collection), con la idea de lograr el liderazgo de China en la ciencia global (9). 

Sin embargo, cuando China llegó a la cima y analizó los resultados de su política, dio un giro en dirección diametralmente opuesta. Los cambios que propusieron las nuevas políticas emitidas de forma conjunta por el Ministerio de Ciencia y Tecnología y el Ministerio de Educación de China desarticulan en parte el esquema mercantilista y promueven el diálogo internacional desde una lógica más soberana. Como señala Jie Xu (12), para quienes soliciten financiamiento o se postulen a convocatorias a nivel nacional, las nuevas políticas de China establecen un máximo de cinco trabajos representativos, de los cuales, al menos un tercio, deben publicarse en revistas chinas.

Este nuevo plan reemplaza, por un lado, la idea hiperproductivista, dado que ni la cantidad de artículos publicados, ni el factor de impacto de las revistas en las que se publiquen los trabajos representativos se podrán utilizar como medida de desempeño o capacidad investigadora; y, por otro, alienta la publicación en revistas editadas en China, para lo cual se prevé apoyo financiero para el desarrollo de estas revistas.

En línea con los nuevos lineamientos de la política China, en 2021, Francia publicó el 2.° Plan Nacional para la Ciencia Abierta, cuya propuesta es apoyar “la bibliodiversidad para que la comunidad científica recupere el control del sistema editorial”(13). Según Frédérique Vidal, ministra de Educación Superior, Investigación e Innovación de Francia, para lograr este objetivo:

“…se deben inventar nuevas reglas de juego, incluidas las de construcción de un nuevo modelo económico para la publicación científica. En este sentido, es fundamental apoyar modelos editoriales diversos, sostenibles y globalmente viables. Para ello, se creará un fondo dedicado a la publicación científica abierta, dirigido por el Comité de Ciencia Abierta” (14). 

La propuesta francesa, al igual que la de China, es apoyar a las revistas editadas por universidades y sociedades científicas de sus propios países. Siguiendo esta línea, el Consejo Europeo de Investigación (15), que en 2022 distribuyó 2.400 millones de euros para financiar proyectos de investigación de la Unión Europea, anunció la modificación de los criterios de evaluación para el otorgamiento de los fondos, y convocó a desestimar las métricas corporativas como el “factor de impacto” y asumir que el contenido científico de un artículo es mucho más importante que las métricas de publicación o la identidad de la revista en la que fue publicado. Tal como expresa el informe, “la amplia implementación de los criterios de evaluación de la investigación que integran los principios de DORA es la clave para una transición equitativa a la ciencia abierta”(15).

En los Países Bajos, en 2021, la Universidad de Utrecht expresó públicamente su decisión de no tener en cuenta el factor de impacto como medida estándar del éxito científico, para todas las decisiones de contratación y promoción. En palabras de Paul Boselie, “se ha convertido en un modelo muy dañino que va más allá de lo que es realmente relevante para la ciencia y lo que debería promover la ciencia”, por lo que se propone un mayor compromiso con el trabajo en equipo y con la ciencia abierta (16). 

Y aquí es donde nos paramos a aplaudir de pie. Finalmente, quienes hace años vienen discutiendo el modelo de evaluación y circulación de las ciencias lograron incluir el tema en la agenda política, y las instancias políticas comenzaron a tomar decisiones en esa línea. 

Ahora bien, una de las particularidades del campo científico es que es ecosistémico. Las conversaciones de las ciencias son internacionales. Las comunidades científicas suelen dialogar con formulaciones teóricas y metodológicas surgidas en diversas regiones del planeta, y no solo en las ciencias duras: las desigualdades, las relaciones asimétricas de poder, la discriminación, el sufrimiento y la exclusión de grandes sectores de la población, la persistencia de las llamadas enfermedades “postergadas” son temas que atraviesan a todos los continentes. Así es como grupos de investigación de España, México, Francia o Rusia, por ejemplo, publican en revistas argentinas, y viceversa. Pero cada persona es evaluada bajo los parámetros establecidos por la institución en la que trabaja o por las políticas del país en el que se inserta esa institución. Los equipos de investigación que soliciten fondos de investigación son evaluados, a su vez, sobre la base de las políticas de la entidad financiadora. Por lo tanto, las políticas que se adopten en un país o en una institución repercuten en las revistas científicas de otros países. 

En este sentido, si bien las nuevas políticas europeas beneficiarían a las revistas editadas en América Latina, cuyo modelo de publicación se alinea desde hace años con los valores de la ciencia abierta ¿qué posición van a adoptar los propios gobiernos de los países de América Latina?, ¿seguirán escuchando al ala más conservadora de la comunidad científica, que defiende modelos jerárquicos y meritocráticos, en los que la validación científica queda en manos de un grupo de corporaciones con grandes intereses económicos, sin importar el daño que este modelo ocasiona a la creatividad científica, a la innovación y a la diversidad de perspectivas?, ¿seguirán avalando el desfinanciamiento de las revistas científicas editadas en sus propios países? 

En el caso de Argentina, existe una disociación entre los lineamientos de la política de ciencia y tecnología abocada, entre otros aspectos, a “fortalecer las capacidades para realizar ciencia de calidad orientada por agendas enfocadas en la realidad social y productiva de la Argentina y de los países de la región” (17), y la política de evaluación de la investigación científico-académica, abandonada a las lógicas tecnocráticas. Mientras la política en ciencia y tecnología se aborda en términos políticos, la política de evaluación de la investigación opera en términos corporativos y, en consecuencia, se produce una gran desarticulación entre lo que se estimula investigar –y, sobre todo, publicar– y los problemas y los actores con los que las ciencias podrían dialogar.

Mientras en los lineamientos de las políticas nacionales de ciencia y tecnología se propone “multiplicar los procesos de aprendizaje y acumulación de capacidades institucionales, organizacionales y tecnológicas, de coordinación con el sector productivo, de transferencia y extensión y de incentivo a la creación de pymes tecnológicas” (17), en el área de publicaciones se sigue estimulando el desfinanciamiento de las revistas científicas editadas en el país y la exportación de divisas para sumar dividendos a la industria editorial científica transnacional (18).

Quebrar el statu quo actual implicaría, por un lado, un cambio en la cultura de evaluación: salir de modelos jerárquicos, meritocráticos e individualistas, para empezar a privilegiar la creatividad científica, la innovación, la investigación colaborativa y, sobre todo, la diversidad de perspectivas. Pero, por otro lado, se deberían potenciar revistas con capacidad de generar diálogos internacionales y de disputar el capital simbólico que hoy detentan las revistas de la industria editorial científica, lo cual demanda desarrollos tecnológicos y de experticias para la apropiación de esos desarrollos que podrían ser financiados de forma centralizada para todas las revistas editadas en el país (19).

En el escenario actual, las nuevas iniciativas en materia de publicaciones se deciden de forma desarticulada respecto del gran conjunto de actores implicados en el problema. Reuniones acotadas a un grupo de personas, que no necesariamente representan a colectivos organizados, terminan implementando lineamientos generales totalmente desconocidos por las personas destinatarias de esas políticas. 

Para producir un cambio real es necesario restituir la dimensión política. Como señala Gadamer, “el concepto de la técnica ha desplazado al de la praxis, o dicho de otro modo, la competencia del experto ha desplazado a la razón política” (20). Al anular la razón política de las áreas de evaluación científica, la racionalidad técnica se torna en sí misma la racionalidad de la acción social. De este modo, las instancias gubernamentales dejan de operar políticamente y ese retroceso permite el avance de la lógica tecnocrática de la mano de la racionalidad técnica (21). Revertir esta dinámica y restituir la dimensión política demanda empezar a discutir en las universidades, en los institutos de investigación, en las carreras de grado y posgrado, en los hospitales y en todos los ámbitos en los que se realicen investigaciones, los porqués y los paraqués se investiga y se pone a circular esa investigación en el plano narrativo, de manera de conformar colectivos con capacidad de disputar otras lógicas.

Referencias
1. DORA. Declaración De San Francisco Sobre La Evaluación De La Investigación [Internet]. DORA. 2022 [citado 10 de marzo de 2023]. Disponible en: https://sfdora.org/read/read-the-declaration-espanol/
2. Martinovich V. Indicadores de citación y relevancia científica: Genealogía de una representación. Dados. 2020;63(2):e20190094. 
3. Martinovich V. Los dueños de la ciencia. Anfibia [Internet]. 2017; Disponible en: http://revistaanfibia.com/ensayo/los-duenos-de-la-ciencia/
4. Martinovich V. La dimensión política del acceso abierto: ¿el conocimiento como bien público o como mercancía? Salud Colectiva. 2015;11(3):297. 
5. The research counts, not the journal! [Internet]. 2017 [citado 10 de marzo de 2023]. (Nobel Prize). Disponible en: https://www.youtube.com/watch?v=6MQ8R0OyvyQ
6. Schekman R. How journals like Nature, Cell and Science are damaging science. The Guardian [Internet]. 2013 [citado 3 de enero de 2017]; Disponible en: https://www.theguardian.com/commentisfree/2013/dec/09/how-journals-nature-science-cell-damage-science
7. Adler R, Ewing J, Taylor P. Citation statistics [Internet]. International Mathematical Union, International Council of Industrial and Applied Mathematics, Institute of Mathematical Statistics; 2008. Disponible en: https://www.mathunion.org/fileadmin/IMU/Report/CitationStatistics.pdf
8. Zhang L, Sivertsen G. The New Research Assessment Reform in China and Its Implementation. Scholarly Assessment Reports. 2020;2(1):3. 
9. Shu F, Liu S, Larivière V. China’s Research Evaluation Reform: What are the Consequences for Global Science? Minerva. 2022;60(3):329–47. 
10. Tao T. Guest Post — The Emergence of Chinese STM Publishers: Threat or Opportunity? An Interview with Matthias Wahls [Internet]. The Scholarly Kitchen. 2019 [citado 10 de marzo de 2023]. Disponible en: https://scholarlykitchen.sspnet.org/2019/11/19/guest-post-the-emergence-of-chinese-stm-publishers-threat-or-opportunity-an-interview-with-matthias-wahls/
11. National Science Board. Science & Engineering Indicators [Internet]. Alexandria: National Science Foundation; 2018. Disponible en: https://www.nsf.gov/statistics/2018/nsb20181/assets/nsb20181.pdf
12. Xu J. Guest Post — How China’s New Policy May Change Researchers’ Publishing Behavior [Internet]. The Scholarly Kitchen. 2020 [citado 10 de marzo de 2023]. Disponible en: https://scholarlykitchen.sspnet.org/2020/03/03/guest-post-how-chinas-new-policy-may-change-researchers-publishing-behavior/
13. Ministére de l’Enseignement Supérieur et de la Recherche. Le Plan national pour la science ouverte 2021-2024 : vers une généralisation de la science ouverte en France | enseignementsup-recherche.gouv.fr [Internet]. Ministére de l’Enseignement Supérieur et de la Recherche. 2021 [citado 10 de marzo de 2023]. Disponible en: https://www.enseignementsup-recherche.gouv.fr/fr/le-plan-national-pour-la-science-ouverte-2021-2024-vers-une-generalisation-de-la-science-ouverte-en-48525
14. Vidal F. Lettre de la science ouverte | numéro 1 [Internet]. Ministére de l’Enseignement Supérieur et de la Recherche. 2021 [citado 10 de marzo de 2023]. Disponible en: https://www.ouvrirlascience.fr/wp-content/themes/coso2021/lettresinfo/lettre1.html
15. European Research Council. ERC plans for 2022 announced [Internet]. European Research Council; 2021. Disponible en: https://erc.europa.eu/news/erc-2022-work-programme
16. Woolston C. Impact factor abandoned by Dutch university in hiring and promotion decisions. Nature. 2021;595(7867):462. 
17. Ministerio de Ciencia, Tecnología e Innovación. Plan Nacional de Ciencia, Tecnología e Innovación 2030 [Internet]. Buenos Aires: Ministerio de Ciencia, Tecnología e Innovación; 2020. Disponible en: https://www.argentina.gob.ar/sites/default/files/plan_cti_2030_-_documento_preliminar_septiembre_2020.pdf
18. Martinovich V, Spinelli H. Barajar y dar de nuevo [Internet]. El Cohete a la Luna. 2020 [citado 10 de marzo de 2023]. Disponible en: https://www.elcohetealaluna.com/barajar-y-dar-de-nuevo/
19. Martinovich V. Covid-19 y dependencia científica. El Cohete a la Luna [Internet]. 2020 [citado 8 de diciembre de 2021]; Disponible en: https://www.elcohetealaluna.com/covid-19-y-dependencia-cientifica/
20. Gadamer HG. Verdad y método. 11a ed. Salamanca: Ediciones Sígueme; 2005. 
21. Martinovich V. Ciencia abierta en América Latina: repensar la interdependencia dinámica entre las ciencias y la sociedad. Revista Espacios. 2021;42(24):1–14. 

ESPAÑA: profesores de la Complutense llevan más de 300 firmas al Rectorado para que corte relaciones con empresas y academias cercanas a ISRAEL

Publicado en El País https://elpais.com/espana/madrid/2024-05-10/los-maestros-de-la-complutense-llevan-mas-de-300-firmas-al-rectorado-para-...