Políticas nacionales de ciencia y tecnología y evaluación científico-académica ¿no deberían ir de la mano?
video: "The research counts, not the journal"
Viviana Martinovich
Editora ejecutiva, revista científica Salud Colectiva; directora editorial, colección de libros Cuadernos del ISCo; docente-investigadora, Instituto de Salud Colectiva, Universidad Nacional de Lanús.
Editora ejecutiva, revista científica Salud Colectiva; directora editorial, colección de libros Cuadernos del ISCo; docente-investigadora, Instituto de Salud Colectiva, Universidad Nacional de Lanús.
12 de julio de 2023 | Ciencia Propia https://cienciapropia.com.ar/evaluacion-cientifico-academica
Durante más de 200 años, las revistas científicas han sido el dispositivo central del diálogo integrador y cosmopolita de las ciencias. Pero desde la segunda mitad del siglo XX, gobiernos de distintas latitudes y colores políticos adoptaron ciertas reglas del libre mercado creadas por grandes monopolios industriales, y asociaron la evaluación de la producción escrita de las ciencias a indicadores de “calidad” científica creados a medida para asegurar el primado del complejo científico-industrial de países industrializados, por lo que el artículo científico y, por ende, las propias investigaciones se tornaron moneda de cambio para un ascenso meritocrático, y se distanciaron de las políticas nacionales de ciencia y tecnología. En este contexto, diversas instituciones y países –como China, Francia y la Comisión Europea– comenzaron a promover el abandono de los indicadores de citación corporativos para privilegiar las agendas científicas nacionales y el impacto social de las investigaciones. ¿Qué posición van a adoptar los gobiernos de los países de América Latina? ¿Seguirán escuchando al ala más conservadora de la comunidad científica?
Que estamos en un momento de cambios, no hay duda. Hacia dónde va el cambio, está por verse. Pero lo cierto es que universidades, sociedades científicas, organismos de financiamiento, directoras y directores de revistas científicas, de más de 140 países se han proclamado en contra de los actuales sistemas de evaluación de las ciencias y adhirieron a la Declaración de San Francisco sobre la evaluación de la investigación (DORA) (1), que considera que “el contenido científico de un artículo es mucho más importante que las métricas de publicación o la identidad de la revista en la que fue publicado”. ¿Qué significa esto?
Cuando una investigadora o un investigador se presentan a alguna de las tantas instancias de evaluación, por ejemplo, para obtener una beca, ingresar a un doctorado, obtener fondos para una investigación o conseguir una promoción dentro de la carrera de investigación, uno de los ítems que más peso tiene en gran parte de los países del mundo son los artículos que publicó y en qué revistas publicó esos trabajos.
Pero esto no es nuevo: a lo largo de varios siglos, el artículo científico fue un elemento central del sistema de comunicación de las ciencias y, además, una carta de presentación. En Argentina, por ejemplo, en la década de 1870, cuando Sarmiento le pidió al naturalista alemán Germán Burmeister que use sus contactos para traer profesores de Alemania, al presentar el listado de potenciales profesores, enumeró los artículos que cada uno de ellos habían publicado en revistas científicas de la época.
Esta práctica no es la que está en cuestionamiento. Lo que está en discusión es la intromisión de la lógica de mercado en la estratificación de las ciencias a través de indicadores de “calidad” científica, que comienzan a imponerse luego de la Segunda Guerra Mundial (2). Durante los últimos 70 años, un puñado de corporaciones consolidaron un engranaje financiado por las grandes industrias químicas, alimentarias, farmacéuticas, etc., para validar científicamente sus productos a través de ciertas revistas consideradas “internacionales”, de manera que las revistas editadas por fuera de ese esquema industrial quedaran en el imaginario colectivo como revistas “emergentes” o “nacionales”, asignándole a la palabra “nacional” un carácter altamente peyorativo (3).
Estados fuertes y débiles, Estados ricos y pobres, nortes y sures, gobiernos de derecha y gobiernos progresistas, todos compraron un esquema de evaluación basado en indicadores definidos por las mismas corporaciones que obtenían grandes ganancias, lo que fomentó un modelo de ciencia jerárquico, individualista, altamente competitivo y mercantilista. La política científica mundial parecía seguir las reglas del libre mercado y operar exclusivamente con indicadores de “calidad” científica creados a medida para asegurar el primado de un puñado de compañías, sin ningún tipo de intervención de las políticas estatales en ciencia y tecnología de cada país.
Hace varios años atrás, decíamos que el movimiento de acceso abierto tenía la potencialidad de restituir la dimensión política al interior de un campo científico altamente mercantilizado (4). Y eso es lo que comenzó a ocurrir: esas prácticas, que fueron sostenidas y avaladas por gran parte de la comunidad científica durante años, comenzaron a ser cuestionadas fuertemente desde su núcleo central. Premios Nobel como Joseph Goldstein, Peter Doherty, Paul Nurse, Bruce Beutler (5), o Randy Schekman (6), expresaron públicamente los efectos nocivos de la competencia por las métricas; instituciones como el Consejo de Investigación del Reino Unido, la Organización Europea de Biología Molecular, la Sociedad Americana de Microbiología, la Unión Matemática Internacional (7), Wellcome Trust, entre tantas otras, comenzaron a hacer público su rechazo.
Si bien los cimientos habían comenzado a resquebrajarse, no se lograban imprimir cambios en las instancias de decisión política, que seguían relegando la toma de decisiones en manos del sector más conservador de la comunidad científica.
Sin embargo, desde que China publicó las nuevas políticas de financiación y evaluación de la investigación (8), como efecto cascada, varios países europeos y entidades que representan a la Unión Europea han seguido su camino y han decidido romper con los criterios de evaluación utilizados hasta el momento, para comenzar a delinear políticas más sustentables en términos económicos, que mejoren las formas en que se evalúan los resultados de investigación académica haciendo un esfuerzo por múltiples vías para hacer que la investigación sea más diversa, plural, transparente, cooperativa y colaborativa.
Como señalan Shu, Liu y Larivière, China en la década de 1990 había apostado a crecer dentro de la lógica del sistema estadounidense, centrado en la alta productividad de artículos publicados en revistas indizadas en Web of Science (9). Según Matthias Wahls, este proyecto se enmarcó en una política global que China lanzó en 2004-2005 para exportar al mundo su cultura, su idioma y sus líneas de Investigación y Desarrollo. En este marco, conquistar la industria editorial y lograr publicar más trabajos que EEUU, fueron algunos de los tantos vehículos para lograr sus objetivos, que fueron acompañados del envío de multitudes de estudiantes e investigadores a universidades occidentales, y de la firma de acuerdos de cooperación académica (10). A la par de un crecimiento exponencial de su economía, según datos del National Science Board (11), las publicaciones de China casi se quintuplicaron en el período 2003-2018 y, como resultado, la producción de China, en términos de cantidad absoluta, superó a la de EEUU. China logró este crecimiento a través del otorgamiento de incentivos financieros y mayores fondos de investigación a quienes lograran publicar sus investigaciones en revistas indizadas en Web of Science (Core Collection), con la idea de lograr el liderazgo de China en la ciencia global (9).
Sin embargo, cuando China llegó a la cima y analizó los resultados de su política, dio un giro en dirección diametralmente opuesta. Los cambios que propusieron las nuevas políticas emitidas de forma conjunta por el Ministerio de Ciencia y Tecnología y el Ministerio de Educación de China desarticulan en parte el esquema mercantilista y promueven el diálogo internacional desde una lógica más soberana. Como señala Jie Xu (12), para quienes soliciten financiamiento o se postulen a convocatorias a nivel nacional, las nuevas políticas de China establecen un máximo de cinco trabajos representativos, de los cuales, al menos un tercio, deben publicarse en revistas chinas.
Este nuevo plan reemplaza, por un lado, la idea hiperproductivista, dado que ni la cantidad de artículos publicados, ni el factor de impacto de las revistas en las que se publiquen los trabajos representativos se podrán utilizar como medida de desempeño o capacidad investigadora; y, por otro, alienta la publicación en revistas editadas en China, para lo cual se prevé apoyo financiero para el desarrollo de estas revistas.
En línea con los nuevos lineamientos de la política China, en 2021, Francia publicó el 2.° Plan Nacional para la Ciencia Abierta, cuya propuesta es apoyar “la bibliodiversidad para que la comunidad científica recupere el control del sistema editorial”(13). Según Frédérique Vidal, ministra de Educación Superior, Investigación e Innovación de Francia, para lograr este objetivo:
“…se deben inventar nuevas reglas de juego, incluidas las de construcción de un nuevo modelo económico para la publicación científica. En este sentido, es fundamental apoyar modelos editoriales diversos, sostenibles y globalmente viables. Para ello, se creará un fondo dedicado a la publicación científica abierta, dirigido por el Comité de Ciencia Abierta” (14).
La propuesta francesa, al igual que la de China, es apoyar a las revistas editadas por universidades y sociedades científicas de sus propios países. Siguiendo esta línea, el Consejo Europeo de Investigación (15), que en 2022 distribuyó 2.400 millones de euros para financiar proyectos de investigación de la Unión Europea, anunció la modificación de los criterios de evaluación para el otorgamiento de los fondos, y convocó a desestimar las métricas corporativas como el “factor de impacto” y asumir que el contenido científico de un artículo es mucho más importante que las métricas de publicación o la identidad de la revista en la que fue publicado. Tal como expresa el informe, “la amplia implementación de los criterios de evaluación de la investigación que integran los principios de DORA es la clave para una transición equitativa a la ciencia abierta”(15).
En los Países Bajos, en 2021, la Universidad de Utrecht expresó públicamente su decisión de no tener en cuenta el factor de impacto como medida estándar del éxito científico, para todas las decisiones de contratación y promoción. En palabras de Paul Boselie, “se ha convertido en un modelo muy dañino que va más allá de lo que es realmente relevante para la ciencia y lo que debería promover la ciencia”, por lo que se propone un mayor compromiso con el trabajo en equipo y con la ciencia abierta (16).
Y aquí es donde nos paramos a aplaudir de pie. Finalmente, quienes hace años vienen discutiendo el modelo de evaluación y circulación de las ciencias lograron incluir el tema en la agenda política, y las instancias políticas comenzaron a tomar decisiones en esa línea.
Ahora bien, una de las particularidades del campo científico es que es ecosistémico. Las conversaciones de las ciencias son internacionales. Las comunidades científicas suelen dialogar con formulaciones teóricas y metodológicas surgidas en diversas regiones del planeta, y no solo en las ciencias duras: las desigualdades, las relaciones asimétricas de poder, la discriminación, el sufrimiento y la exclusión de grandes sectores de la población, la persistencia de las llamadas enfermedades “postergadas” son temas que atraviesan a todos los continentes. Así es como grupos de investigación de España, México, Francia o Rusia, por ejemplo, publican en revistas argentinas, y viceversa. Pero cada persona es evaluada bajo los parámetros establecidos por la institución en la que trabaja o por las políticas del país en el que se inserta esa institución. Los equipos de investigación que soliciten fondos de investigación son evaluados, a su vez, sobre la base de las políticas de la entidad financiadora. Por lo tanto, las políticas que se adopten en un país o en una institución repercuten en las revistas científicas de otros países.
En este sentido, si bien las nuevas políticas europeas beneficiarían a las revistas editadas en América Latina, cuyo modelo de publicación se alinea desde hace años con los valores de la ciencia abierta ¿qué posición van a adoptar los propios gobiernos de los países de América Latina?, ¿seguirán escuchando al ala más conservadora de la comunidad científica, que defiende modelos jerárquicos y meritocráticos, en los que la validación científica queda en manos de un grupo de corporaciones con grandes intereses económicos, sin importar el daño que este modelo ocasiona a la creatividad científica, a la innovación y a la diversidad de perspectivas?, ¿seguirán avalando el desfinanciamiento de las revistas científicas editadas en sus propios países?
En el caso de Argentina, existe una disociación entre los lineamientos de la política de ciencia y tecnología abocada, entre otros aspectos, a “fortalecer las capacidades para realizar ciencia de calidad orientada por agendas enfocadas en la realidad social y productiva de la Argentina y de los países de la región” (17), y la política de evaluación de la investigación científico-académica, abandonada a las lógicas tecnocráticas. Mientras la política en ciencia y tecnología se aborda en términos políticos, la política de evaluación de la investigación opera en términos corporativos y, en consecuencia, se produce una gran desarticulación entre lo que se estimula investigar –y, sobre todo, publicar– y los problemas y los actores con los que las ciencias podrían dialogar.
Mientras en los lineamientos de las políticas nacionales de ciencia y tecnología se propone “multiplicar los procesos de aprendizaje y acumulación de capacidades institucionales, organizacionales y tecnológicas, de coordinación con el sector productivo, de transferencia y extensión y de incentivo a la creación de pymes tecnológicas” (17), en el área de publicaciones se sigue estimulando el desfinanciamiento de las revistas científicas editadas en el país y la exportación de divisas para sumar dividendos a la industria editorial científica transnacional (18).
Quebrar el statu quo actual implicaría, por un lado, un cambio en la cultura de evaluación: salir de modelos jerárquicos, meritocráticos e individualistas, para empezar a privilegiar la creatividad científica, la innovación, la investigación colaborativa y, sobre todo, la diversidad de perspectivas. Pero, por otro lado, se deberían potenciar revistas con capacidad de generar diálogos internacionales y de disputar el capital simbólico que hoy detentan las revistas de la industria editorial científica, lo cual demanda desarrollos tecnológicos y de experticias para la apropiación de esos desarrollos que podrían ser financiados de forma centralizada para todas las revistas editadas en el país (19).
En el escenario actual, las nuevas iniciativas en materia de publicaciones se deciden de forma desarticulada respecto del gran conjunto de actores implicados en el problema. Reuniones acotadas a un grupo de personas, que no necesariamente representan a colectivos organizados, terminan implementando lineamientos generales totalmente desconocidos por las personas destinatarias de esas políticas.
Para producir un cambio real es necesario restituir la dimensión política. Como señala Gadamer, “el concepto de la técnica ha desplazado al de la praxis, o dicho de otro modo, la competencia del experto ha desplazado a la razón política” (20). Al anular la razón política de las áreas de evaluación científica, la racionalidad técnica se torna en sí misma la racionalidad de la acción social. De este modo, las instancias gubernamentales dejan de operar políticamente y ese retroceso permite el avance de la lógica tecnocrática de la mano de la racionalidad técnica (21). Revertir esta dinámica y restituir la dimensión política demanda empezar a discutir en las universidades, en los institutos de investigación, en las carreras de grado y posgrado, en los hospitales y en todos los ámbitos en los que se realicen investigaciones, los porqués y los paraqués se investiga y se pone a circular esa investigación en el plano narrativo, de manera de conformar colectivos con capacidad de disputar otras lógicas.
Referencias
1. DORA. Declaración De San Francisco Sobre La Evaluación De La Investigación [Internet]. DORA. 2022 [citado 10 de marzo de 2023]. Disponible en: https://sfdora.org/read/read-the-declaration-espanol/
2. Martinovich V. Indicadores de citación y relevancia científica: Genealogía de una representación. Dados. 2020;63(2):e20190094.
3. Martinovich V. Los dueños de la ciencia. Anfibia [Internet]. 2017; Disponible en: http://revistaanfibia.com/ensayo/los-duenos-de-la-ciencia/
4. Martinovich V. La dimensión política del acceso abierto: ¿el conocimiento como bien público o como mercancía? Salud Colectiva. 2015;11(3):297.
5. The research counts, not the journal! [Internet]. 2017 [citado 10 de marzo de 2023]. (Nobel Prize). Disponible en: https://www.youtube.com/watch?v=6MQ8R0OyvyQ
6. Schekman R. How journals like Nature, Cell and Science are damaging science. The Guardian [Internet]. 2013 [citado 3 de enero de 2017]; Disponible en: https://www.theguardian.com/commentisfree/2013/dec/09/how-journals-nature-science-cell-damage-science
7. Adler R, Ewing J, Taylor P. Citation statistics [Internet]. International Mathematical Union, International Council of Industrial and Applied Mathematics, Institute of Mathematical Statistics; 2008. Disponible en: https://www.mathunion.org/fileadmin/IMU/Report/CitationStatistics.pdf
8. Zhang L, Sivertsen G. The New Research Assessment Reform in China and Its Implementation. Scholarly Assessment Reports. 2020;2(1):3.
9. Shu F, Liu S, Larivière V. China’s Research Evaluation Reform: What are the Consequences for Global Science? Minerva. 2022;60(3):329–47.
10. Tao T. Guest Post — The Emergence of Chinese STM Publishers: Threat or Opportunity? An Interview with Matthias Wahls [Internet]. The Scholarly Kitchen. 2019 [citado 10 de marzo de 2023]. Disponible en: https://scholarlykitchen.sspnet.org/2019/11/19/guest-post-the-emergence-of-chinese-stm-publishers-threat-or-opportunity-an-interview-with-matthias-wahls/
11. National Science Board. Science & Engineering Indicators [Internet]. Alexandria: National Science Foundation; 2018. Disponible en: https://www.nsf.gov/statistics/2018/nsb20181/assets/nsb20181.pdf
12. Xu J. Guest Post — How China’s New Policy May Change Researchers’ Publishing Behavior [Internet]. The Scholarly Kitchen. 2020 [citado 10 de marzo de 2023]. Disponible en: https://scholarlykitchen.sspnet.org/2020/03/03/guest-post-how-chinas-new-policy-may-change-researchers-publishing-behavior/
13. Ministére de l’Enseignement Supérieur et de la Recherche. Le Plan national pour la science ouverte 2021-2024 : vers une généralisation de la science ouverte en France | enseignementsup-recherche.gouv.fr [Internet]. Ministére de l’Enseignement Supérieur et de la Recherche. 2021 [citado 10 de marzo de 2023]. Disponible en: https://www.enseignementsup-recherche.gouv.fr/fr/le-plan-national-pour-la-science-ouverte-2021-2024-vers-une-generalisation-de-la-science-ouverte-en-48525
14. Vidal F. Lettre de la science ouverte | numéro 1 [Internet]. Ministére de l’Enseignement Supérieur et de la Recherche. 2021 [citado 10 de marzo de 2023]. Disponible en: https://www.ouvrirlascience.fr/wp-content/themes/coso2021/lettresinfo/lettre1.html
15. European Research Council. ERC plans for 2022 announced [Internet]. European Research Council; 2021. Disponible en: https://erc.europa.eu/news/erc-2022-work-programme
16. Woolston C. Impact factor abandoned by Dutch university in hiring and promotion decisions. Nature. 2021;595(7867):462.
17. Ministerio de Ciencia, Tecnología e Innovación. Plan Nacional de Ciencia, Tecnología e Innovación 2030 [Internet]. Buenos Aires: Ministerio de Ciencia, Tecnología e Innovación; 2020. Disponible en: https://www.argentina.gob.ar/sites/default/files/plan_cti_2030_-_documento_preliminar_septiembre_2020.pdf
18. Martinovich V, Spinelli H. Barajar y dar de nuevo [Internet]. El Cohete a la Luna. 2020 [citado 10 de marzo de 2023]. Disponible en: https://www.elcohetealaluna.com/barajar-y-dar-de-nuevo/
19. Martinovich V. Covid-19 y dependencia científica. El Cohete a la Luna [Internet]. 2020 [citado 8 de diciembre de 2021]; Disponible en: https://www.elcohetealaluna.com/covid-19-y-dependencia-cientifica/
20. Gadamer HG. Verdad y método. 11a ed. Salamanca: Ediciones Sígueme; 2005.
21. Martinovich V. Ciencia abierta en América Latina: repensar la interdependencia dinámica entre las ciencias y la sociedad. Revista Espacios. 2021;42(24):1–14.
No hay comentarios:
Publicar un comentario