Mostrando entradas con la etiqueta España. Mostrar todas las entradas
Mostrando entradas con la etiqueta España. Mostrar todas las entradas

domingo, 1 de octubre de 2023

ESPAÑA: Crece el número de retractaciones en investigaciones españolas

Publicado en Diarioenfermero
https://diarioenfermero.es/credibilidad-cientifica-juego-crece-retractaciones-investigaciones/



La credibilidad científica en juego: crece el número de retractaciones en investigaciones españolas

Publicado por: Diario Enfermero
septiembre 26, 2023

IRENE BALLESTEROS.- Falsificación, plagio, duplicación y fuentes no fiables. Cada año se detecta un mayor número de malas conductas en la elaboración de artículos científicos e investigaciones. Una mala praxis que está poniendo en juego la calidad de la ciencia, y no solo en nuestro país. Y es que, la veracidad de la ciencia no pasa por su mejor etapa, un hecho que se desprende del estudio «La retractación científica en España. Análisis de las características y razones», un proyecto elaborado por investigadores de la Universidad de Santiago de Compostela, en España y de la Universidad de Yale, en Estados Unidos, cuyos resultados han sido presentados en el último Congreso de la Sociedad Española de Epidemiología.

Cuando se realiza una investigación científica bajo malas conductas se lleva a cabo un proceso de retractación, donde se indica que la publicación contiene conclusiones, resultados y datos que no son fiables y, por lo tanto, se solicita su corrección o se confirma que no pueden usarse para su reproducción, así como tampoco deberían servir como referencias para otros trabajos. Lo cierto es que, a pesar de parecer una actividad propia de las nuevas tecnologías, la retractación de publicaciones lleva existiendo muchos años. «Desde finales de los años 70 la retractación de artículos se ha llevado a cabo y el proceso de detección e investigación de las publicaciones se ha ido perfeccionando desde entonces», explica Roberto Guerrero, doctor en enfermería y miembro del Instituto Español de Investigación Enfermera del Consejo General de Enfermería (CGE).

Pero ¿por qué se está incrementando esta mala práctica si ya existen herramientas potentes para evitarla? «Que haya un mayor número de retractaciones se puede entender desde tres aspectos relevantes: que se incrementen los casos de mala conducta científica debido a la presión por publicar, que la cantidad de artículos publicados al año haya aumentado considerablemente y porque los sistemas de detección de artículos erróneos se hayan perfeccionado, gracias a la disponibilidad de tecnología específica para ello», continúa el enfermero.

Impacto directo en la sanidad

La retractación es el único proceso que permite detectar y corregir las malas conductas en la investigación científica. En total, este estudio ha logrado detectar, hasta el 26 de enero de 2023, 374 retractaciones, un número que hace especial daño a la ciencia y, por lo tanto, impacta de forma directa en la sanidad, pues es un claro indicador de la falta de credibilidad y veracidad de sus investigaciones. «La mala práctica científica da lugar a la aparición de mala ciencia, de la que se sacan conclusiones erróneas sobre los problemas de salud y su abordaje. Esto, sin duda, tiene un impacto negativo en la atención sanitaria, dado que los profesionales pueden tener una base de evidencia errónea y sus intervenciones pueden tener efectos nocivos en la salud de las personas», afirma Guerrero.

Un claro ejemplo de su impacto en el ámbito sanitario es el COVID-19. La pandemia trajo consigo la inmediatez y obligó a toda una humanidad a consumir y fabricar contenido científico sobre el avance del virus y sus causas desconocidas. Los artículos científicos publicados con COVID-19 en sus titulares se cuentan por millones. Lo cierto es que una gran parte de ellos han sido retractados. Retraction Watch, un blog dedicado a informar sobre retractaciones de artículos científicos y temas relacionados, ha podido detectar 369 artículos sobre COVID-19 que han sido retractados.

Investigación enfermera

Ni todas las retractaciones son iguales, ni todas tienen la misma repercusión e impacto. Tal y como apunta el Código de Buenas Prácticas Científicas, del Consejo Superior de Investigaciones Científicas, «las violaciones más serias de la buena práctica científica son la fabricación y falsificación«. Dentro de las malas conductas practicadas también se encuentra el plagio, la duplicación, los problemas éticos o legales y los datos o resultados no veraces y, por tanto, tampoco fiables.

De las 374 retractaciones detectadas, el 77% de ellas son biomédicas. Pero ¿cómo se presenta el panorama en el ámbito de la enfermería? «De momento, la investigación enfermera no está situada entre las que sufren más retractaciones, en comparación con la investigación médica o farmacéutica. No obstante, se debe realizar un seguimiento sobre los casos de retractación que van apareciendo y analizar los ejemplos de mala práctica investigadora para realizar una labor de concienciación sobre ello», continúa el enfermero investigador.

¿Soluciones?

Más allá del uso de herramientas específicas, la duda más repetida es cómo mejorar la calidad de las publicaciones científicas.

«En primer lugar, debemos entender nuestra responsabilidad en la corrección de errores detectados, ya se detecten en publicaciones propias o en ajenas. Desde el mundo editorial se deben mejorar los esfuerzos sobre procesos de revisión más robustos, mediante la formación y el reconocimiento oficial de los revisores. Hoy en día hay disponibles plataformas para el reconocimiento y la formación de revisores científicos, como Publons, Clarivate o Elsevier», explica Guerrero.

Para contribuir a una buena práctica investigadora, los enfermeros «desde el Instituto Español de Investigación Enfermera queremos promover la contribución proactiva para velar por la buena práctica investigadora, ya sea mediante la comunicación de errores propios de la investigación y su corrección, como la comunicación a editores sobre sospechas de mala conducta detectadas en los trabajos que consumimos. Al fin y al cabo, nuestro objetivo como investigadores no es otro que crear conocimiento de la realidad tal y como es«, concluye este enfermero investigador.



miércoles, 13 de septiembre de 2023

ESPAÑA se rebela. ANECA en la encrucijada: el final del reino del factor de impacto

Publicado en El Diario de la Educación
https://eldiariodelaeducacion.com/2023/09/12/aneca-en-la-encrucijada-el-final-del-reino-del-factor-de-impacto/



ANECA en la encrucijada: el final del reino del factor de impacto

por Luis Mariano Torrego Egido
María Verdeja
Ana de Castro
Enrique Díez
12/09/2023



Hasta ahora el sistema de evaluación y acreditación de la carrera profesional del profesorado universitario la realiza la ANECA (Agencia Nacional de Evaluación de la Calidad y la Acreditación) premiando la acumulación de publicaciones cuantificables y comercializables.

Este sistema ha consolidado un modelo de universidad y de ciencia que se caracteriza por basarse en el factor de impacto y por la utilización de los rankings de revistas como criterio principal de evaluación de la investigación. En otras palabras, el éxito científico consiste en publicar artículos (papers) en revistas “internacionales” indexadas en los primeros cuartiles de los rankings bibliométricos derivados de la Web of Science (JCR) o Scopus (SJR), establecidos por dos multinacionales extranjeras, Clarivate y Elsevier.


Este sistema no profundiza en el valor de los artículos en sí, ni en su relevancia científica o social. Además, ha fomentado una extraordinaria competitividad en el seno de las universidades para aumentar la cantidad de papers en las clasificaciones y ha propiciado prácticas faltas de ética que han sido noticia: investigadores que reciben dinero por figurar en el plantel de instituciones universitarias de Arabia Saudí para que éstas asciendan en los rankings o que publican un artículo “científico” cada 37 horas.

Se ha generado así un innegable proceso de capitalismo académico, caracterizado por el oligopolio de las grandes editoriales y distribuidoras de la producción científica, el incremento de los costes por publicación —los autores o sus instituciones pagan por publicar sus artículos— y las conductas oportunistas de buena parte de las multinacionales de las revistas científicas.

Por otra parte, esta espiral de inflación de papers que casi nadie lee, pero que es el “patrón oro” de nuestro sistema de evaluación, ha llevado a convertir la función docente, esencial en la universidad, en un obstáculo para la promoción académica, una “carga docente”. Lo cual devalúa una finalidad clave de la universidad que es proporcionar una formación de calidad a su alumnado.

Además, este modelo incumple los acuerdos internacionales que en materia de ciencia han sido suscritos por los organismos oficiales españoles, desde la Declaración de San Francisco sobre la evaluación científica (DORA), hasta el Manifiesto de Leiden sobre indicadores de investigación, pasando por la Iniciativa Helsinki sobre multilingüísmo en la comunidad científica, así como los principios de CoARA.

Frente a este enfoque productivista y mercantil, necesitamos un modelo de universidad pública al servicio del bien común y comprometida socialmente, así como un sistema de evaluación y acreditación del profesorado universitario que responda a un modelo de ciencia abierta para el bien común.

Por eso el colectivo de profesorado universitario, Uni-Digna, en reunión con la nueva directora de la ANECA, le ha trasladado la urgencia de dar pasos decididos, de una forma negociada y consensuada con los representantes de la comunidad académica universitaria, para establecer un sistema de evaluación de la docencia y de la investigación más justo, que responda a este modelo de ciencia para el bien común, concretados en cuatro propuestas:

  • Que la acreditación del profesorado descarte el uso de métricas basadas en revistas, en especial el denominado factor de impacto.
  • Que colabore en la configuración de una Ciencia Abierta Pública, que elimine los acuerdos transformativos que están suscribiendo las universidades públicas con las editoras transnacionales para financiar con dinero público la publicación de papers (APC: cargos por procesamiento de artículos) que exigen las revistas privadas.
  • Evaluar, desde una visión global, la investigación, concediendo un peso fundamental a su impacto social, para que contribuya a una ciencia para una sociedad sostenible e inclusiva y comprometida con los derechos de los colectivos más vulnerables.
  • Potenciar la investigación de relevancia local y democratizar la evaluación, poniendo en marcha, entre otras medidas, un proceso independiente, democrático y participativo para evaluar “el sistema de evaluación”.

* Colectivo Uni-Digna: Luis Torrego (catedrático de la Universidad de Valladolid); María Verdeja (profesora contratada doctora de la Universidad de Oviedo); Ana de Castro (profesora de la Universidad La Florida – Valencia) y Enrique-Javier Díez-Gutiérrez (profesor titular de la Universidad de León). Forman parte del Colectivo Uni-Digna, colectivo compuesto por profesorado de diversas ramas de conocimiento de las universidades públicas españolas que se han unido para reivindicar un sistema de evaluación y acreditación del profesorado universitario comprensivo, razonable y justo. Su web: https://unidigna.wordpress.com/



martes, 25 de julio de 2023

Así se infla una carrera académica: cómo firmar artículos científicos desde el Bachillerato gracias a unos padres catedráticos

 Así se infla una carrera académica: cómo firmar artículos científicos desde el Bachillerato gracias a unos padres catedráticos


Con 26 años, Manuel Toledano Osorio tiene 73 'papers' publicados
en revistas de impacto, 71 con su familia. Antes de ir a la U
niversidad ya figuraba en nueve

Actualizado Lunes, 17 julio 2023 -

martes, 18 de julio de 2023

ESPAÑA: Ciencia abierta en España 2023: informe de situación y análisis de la percepción

 reenvío ]


Buenos días,

Nos alegra compartir más resultados del proyecto de Ciencia Abierta, coordinado por el Dr. Ernest Abadal. En esta ocasión el reporte Ciencia abierta en España 2023: informe de situación y análisis de la percepción disponible en: https://diposit.ub.edu/dspace/handle/2445/200020 La versión previa que se difundió en redes ha tenido pequeñas modificaciones y correcciones.

Junto con las Recomendaciones a la administración pública para facilitar la implantación del modelo de ciencia abierta en España, publicadas recientemente (catalán: https://diposit.ub.edu/dspace/handle/2445/198800castellano: https://diposit.ub.edu/dspace/handle/2445/198759 e inglés: https://diposit.ub.edu/dspace/handle/2445/198770) damos por cerrado el proyecto.

Esperamos que sean de vuestro interés.
Atentamente,

El equipo de Ciencia Abierta: https://opensciencespain.org/es
@OpenScience_esp

--

Candela Ollé Castellà

jueves, 6 de julio de 2023

Necesitamos más endogamia universitaria para mejorar la calidad de la docencia

Publicado en blog Universídad. Una conversación pública sobre la universidad
https://www.universidadsi.es/necesitamos-mas-endogamia-universitaria-para-mejorar-la-calidad-de-la-docencia/


Necesitamos más endogamia universitaria para mejorar la calidad de la docencia

29/06/2023

Mucho y mal se ha hablado de la endogamia universitaria. De hecho, se suele describir como uno de los principales problemas de las universidades españolas. Sin embargo, puede resultar curioso saber que esta mala fama que tiene la endogamia solo sucede en España, lo mismo que también sucede con la visión que la mainstream tiene sobre las revistas open acces y el exceso de celo con respecto a los artículos indexados en el JCR. De nuevo Spain is different.

Argumentos en contra de la endogamia

La palabra endogamia significa, según sus orígenes griegos, “matrimonio con personas de la misma casta, aldea, tribu u otro grupo social”; significado que surge de las raíces endo (dentro) y gamos (matrimonio) y el sufijo ia (cualidad). Traducido al mundo académico se refiere al hecho de que las personas que estudian en una universidad acaban trabajando en ella. Pero ¿por qué se considera que la endogamia es perversa?

Los argumentos que afirman que la endogamia es perversa se centran en que está relacionada con las corruptelas, al favorecer la contratación a través de prácticas clientelares (contratación de familiares y de “amiguetes”), en vez de basarse en el mérito y la capacidad.

Se asocia, además, con una cultura contraria a la eficiencia y “pueblerina” en vez de potenciar la movilidad internacional y la competitividad. Esto produce aislamiento, “aldeanismo” y escasa productividad, según los detractores de la endogamia. También le atribuyen otros males como el estancamiento del conocimiento y la acumulación de poder. Se recomienda la lectura de este artículo publicado anteriormente en este blog.

Cuestionar las críticas en contra de la endogamia

Estas críticas parten de un enfoque totalmente equivocado: el carácter local no está reñido o no tiene por qué ser contrario a la globalidad, la excelencia y la exigencia. El concepto de aldea global y de glocalidad ponen el énfasis en la relevancia de lo local y lo próximo en un contexto de globalidad y de mayores exigencias de calidad. Contratar como profesorado a personas que conocen mejor que nadie la realidad a la que se van a tener que enfrentar es una gran ventaja, pues estarán mejor capacitadas para adaptar los programas curriculares a las necesidades docentes concretas del territorio en el que actúan (economía, cultura, lengua, …). Lo que además no les va a impedir adquirir otras capacidades también necesarias y convertirse así en buenos profesionales. ¿O es que acaso el profesorado local no tiene capacidad para ser un buen profesional de la docencia y la investigación?

El tópico según el cual lo que viene de fuera siempre es mejor habría que descartarlo ya, porque entre otras cosas no es cierto y lo que hace es infravalorarnos. Con respecto a la acumulación de poder, ésta se puede producir independientemente de si haya endogamia o no, pues vendrá dada por el uso del poder que hagan quienes están en las categorías profesionales más altas (catedráticas y titulares de universidad).

Sin embargo, la tan deseada competitividad trasladada a lo público y a la enseñanza, es la que más daño está haciendo en la calidad de la docencia.

La obsesión por las publicaciones en revistas de impacto internacional (los famosos JCR) reduce el tiempo que el personal docente e investigador dedica a la preparación de las clases, la evaluación del estudiantado e incluso a las propias horas de clase. Los sistemas de retribución y promoción del profesorado en la universidad cada vez están más basados en la investigación centrada en publicar en revistas de mayor impacto internacional, dejando de lado (reduciendo el peso) de los méritos docentes, lo que provoca desmotivación en las actividades enfocadas a la enseñanza.

Por otra parte, la contratación de personal docente e investigador en la universidad siempre se ha de hacer con criterios de mérito y capacidad y de manera rigurosa; independientemente de los orígenes locales o internacionales de las personas candidatas. No está demostrado que el profesorado local esté peor capacitado que el profesorado que viene de fuera. Aquí es donde hay que poner el énfasis, en la realización de concursos para la contratación inicial de profesorado con criterios de rigor y evitando siempre el clientelismo.

Clientelismo y endogamia son dos conceptos diferentes y no tienen por qué ir unidos o relacionados.

Por otra parte, los planes de Bolonia, el Espacio Europeo de Enseñanza Universitaria y los programas Erasmus han abierto las universidades al mundo, de manera que una gran parte del estudiantado de una universidad española, al finalizar sus estudios universitarios, lo hace con la experiencia de haber realizado parte de su formación universitaria en una universidad extranjera. De la misma manera, al profesorado, para promocionar (vía acreditaciones nacionales), se le exige realizar estancias en otras universidades, lo que abre sus perspectivas y les permite conocer otras realidades más lejanas. Y por si esto fuera poco, el uso de las nuevas tecnologías en el ámbito docente (videoconferencias, …) permite trabajar a nivel mundial sin necesidad de desplazarse físicamente, manteniendo contacto permanente con otros grupos de investigación internacionales. En este contexto, hablar de endogamia tiene muy poco sentido, al menos como una práctica negativa.

La endogamia en la empresa privada: ¿buena o mala?

Otro aspecto importante que cuestiona la mala imagen de la endogamia es estudiar lo que hacen las empresas.

La mayoría de las empresas practican la endogamia como una manera de conseguir una cultura organizativa propia diferenciadora y un personal que sea capaz de identificarse con el proyecto de empresa, altamente motivado y eficiente.

Cada vez son más las empresas que desarrollan planes formativos propios, con el propósito de capacitar a sus personas trabajadoras en las mejores y más actuales técnicas y conocimientos para así mejorar su rendimiento en los puestos de trabajo que ocupan en la empresa. Y también diseñan planes de carrera profesionales con el fin de favorecer la promoción interna entre sus miembros. Esto no está reñido con la contratación de personal externo, cuando es necesario, pero las empresas miman a sus personas trabajadoras porque saben que así conseguirán una plantilla más implicada y una mayor productividad. ¿Por qué esto que es tan bueno para las empresas no lo ha de ser para la universidad?

La universidad, al igual que las empresas, está en su derecho de retener el capital humano que ella misma ha formado, porque de esa manera puede recuperar la fuerte inversión que requiere formar a una persona en el ámbito universitario.

Se consigue así un capital humano fuertemente motivado e implicado en el proyecto, conocedor de la realidad más próxima y a la vez capacitado al mismo nivel que los de fuera.

Por todo lo explicado, mi opinión es que la universidad no debería dejar de ser endogámica, sino que debería de serlo aún más. La endogamia es una fortaleza que hay que saber aprovechar. El estudiantado local puede convertirse en profesorado de excelencia, creando un círculo virtuoso a través del cual mejorar la calidad de la docencia. Necesitamos profesorado vocacional que no solo esté dispuesto a investigar y a publicar en revistas de prestigio, sino también a dedicar una parte importante de su trabajo a la docencia, a impartir clases de calidad. Conocer la realidad local en la que nos movemos, su cultural, su lengua y sus necesidades concretas en cada materia o especialidad, es un recurso valioso que no nos podemos permitir el lujo de perder.

Yo siento una gran satisfacción cuando un/ una estudiante va pasando por los diferentes niveles universitarios (grado, postgrado y doctorado) hasta que se convierte en profesorado de la universidad y pasa a ser compañero o compañera de departamento. El problema no es que el profesorado se haya formado en la misma universidad, el problema es algo más estructural que viene de un sistema universitario mal financiado y excesivamente burocratizado, que lejos de facilitar, pone todo tipo de obstáculos a la capacitación y al trabajo creativo de sus investigadores y profesorado, además de mantener unas condiciones laborales poco dignas (salarios bajos, elevada carga docente y administrativa, …).

La endogamia en otros países europeos: el camino a seguir

En los países más avanzados de Europa en materia de docencia universitaria (Finlandia, Suecia, entre otros) existe un sistema de promoción interna del profesorado que aquí calificaríamos de altamente endogámico.

En otros países, cuando una persona inicia su carrera profesional universitaria accediendo a una plaza de profesorado, ya no tiene que competir con otras personas en su proceso de promoción. Las promociones del profesorado son internas y nadie de fuera puede presentarse a la plaza; todo lo contrario que sucede en España.

Lo importante en estos países es disponer de unos criterios rigurosos de mérito y capacidad en el momento de entrada de la persona en la universidad (el equivalente a profesorado ayudante, ayudante doctor y asociado en España). Después, su carrera profesional dependerá exclusivamente de su esfuerzo y trabajo. Es decir, endogamia al 100%. En España, el profesorado universitario, cada vez que se enfrenta a una promoción, ha de hacerlo con el riesgo de tener que competir con candidatos externos. Esto destruye cualquier tipo de creatividad y obliga a quien promociona a dejar de lado (en muchos casos) sus responsabilidades docentes e investigadoras durante el período de preparación del concurso-oposición.

¿Este sistema de promoción en las universidades españolas garantiza que la persona que va a ocupar la plaza sea la mejor o más preparada? Claramente no. En el resto de las Administraciones Públicas sí que existen las promociones internas, ¿porqué en la universidad no? Nos enfrentamos a un agravio comparativo difícil de justificar.

En definitiva, la endogamia bien entendida puede ser una valiosa fuente de recursos y capacidades que proporcione a las universidades españolas los ingredientes necesarios para la mejora de la calidad en la docencia y en la investigación.

martes, 13 de junio de 2023

AUDIO: ¿Cómo funciona el mundo de las publicaciones científicas? [ entrevista a Eva Méndez y Emilio Delgado]

 AUDIO de la entrevista disponible en ondacero.es




ENTREVISTA

¿Cómo funciona el mundo de las publicaciones científicas?
La profesora de la Universidad Carlos III, Eva Méndez, y el catedrático de la Universidad de Granada, Emilio Delgado, explican cómo funciona el mundo de los artículos científicos o 'papers'. Quien quiera ser reconocido en la ciencia tiene que publicar artículos en revistas de prestigio, y en España, desde 1989, se estableció esta práctica como incentivo para mejorar la productividad de los investigadores. Algo que se convirtió en un elemento que establecía la jerarquización de los profesores en las universidades españolas.

ondacero.es

Madrid|12.06.2023 

martes, 23 de mayo de 2023

DORA: 10 años por el cambio en la evaluación científica

Publicado en Investiga. Monográficos sobre investigación no. 42 (2023) - Biblioteca de la Universidad de Sevilla


DORA: 10 años por el cambio en la evaluación científica

Introducción

En diciembre de 2012, durante la Reunión Anual de la American Society for Cell Biology en San Francisco, se planteó la necesidad de cambiar el mal uso que desde diferentes sectores relacionados con la investigación se estaba dando al Factor de Impacto como métrica de evaluación de la investigación. Seis meses después, en mayo de 2013, esa discusión se plasmaba en una declaración que instaba a agencias de financiación, instituciones, editores, organizaciones que suministran métricas e investigadores a realizar cambios en la evaluación de la investigación mediante una serie de recomendaciones y mejores prácticas: la Declaración de San Francisco sobre Evaluación de la Investigación (Declaration on Research Assessment - - DORA).

Este mes de mayo se cumplen 10 años desde su lanzamiento, en un momento en el que la reforma de la evaluación de la ciencia está de plena actualidad y se suceden las iniciativas en este sentido. En este monográfico haremos un repaso de la Declaración y veremos en qué medida se están planteando sus principios.   

Cambios en los modelos de evaluación de la investigación: ¿una necesidad apremiante?  

La evaluación de la calidad de la investigación es fundamental a la hora de la financiación de la misma, la promoción académica de los investigadores y es la base de todo el sistema de incentivos y recompensas en el mundo académico. Sobre esta base, es evidente que la forma en que se ha estado llevando a cabo ha influido poderosamente en los hábitos de publicación y producción de la investigación.

Evaluar el desempeño del personal investigador mediante el uso exclusivo de ciertos indicadores bibliométricos y el imperio absoluto del IF (JCR) como indicador estrella de la calidad de la investigación, unido al mayor peso de la dimensión investigadora dentro de la carrera académica, ha provocado una adaptación por parte del personal investigador a la hora de seleccionar el medio de difundir los resultados de su trabajo, el formato en que va a publicar (artículo), e incluso, el enfoque del mismo en detrimento de investigaciones más locales de difícil encaje en las grandes revistas internacionales.

Por otro lado, esta creciente necesidad de publicar ha resultado una magnífica oportunidad de negocio para la industria editorial que, facilitada por la transformación digital, no deja de ofrecer oportunidades de publicar cada vez más rápidamente y con “impacto” garantizado.

En estas circunstancias, publicar se ha convertido en un fin en sí mismo y cada vez se hacen más evidentes las consecuencias que provoca en la ciencia la forma en la que se evalúa y se recompensa.

La necesidad de una reforma en la evaluación de la investigación viene de lejos y han sido muchas las voces alertando de lo inadecuado de los sistemas imperantes, no sólo en España, sino en el resto de Europa. La transformación digital, el surgimiento de un concepto de la ciencia más abierto y colaborativo, más multidisciplinar y diversa en sus resultados ha dado el impulso final a las instituciones europeas y nacionales para trabajar en esta dirección.

DORA: 10 años por el cambio en la evaluación científica  

 El punto de partida de DORA es que es urgente cambiar la forma en que se evalúa la investigación científica, ya que los parámetros utilizados para esta evaluación a menudo no son precisos y no se ajustan a los productos que se evalúan. 

Así, considera que, con frecuencia, la evaluación científica se realiza teniendo en cuenta indicadores basados en la calidad de las revistas, sobre todo el Factor de Impacto que, como hemos visto en el apartado anterior, presenta serias limitaciones para medir la calidad científica de la investigación, de un artículo o de los méritos de un investigador. 

Por otra parte, aunque considera que en la actualidad existe una amplia diversidad de productos que muestran resultados de los procesos de la investigación -datos, reactivos, software, propiedad intelectual, etc.- y que algunos de ellos están ganando en importancia, reconoce que el artículo evaluado por pares seguirá siendo fundamental a la hora de evaluar la investigación. 

Ante esto, urge a todos los actores implicados en la evaluación de la investigación a mejorar la forma en la que se evalúa la investigación y ofrece una serie de recomendaciones y buenas prácticas. 

Como recomendación general y, quizás, más importante, indica que el contenido científico de los artículos es mucho más importante que las métricas que analizan las publicaciones o revistas en las que fue publicada la investigación, por lo que pide a todos los agentes implicados en la investigación que no sustituyan la evaluación de la calidad del artículo individuales por métricas basadas en revistas, como el FI.

  “No utilice métricas basadas en revistas, como el factor de impacto, como una medida sustituta de la calidad de los artículos de investigación individuales, para evaluar las contribuciones de un científico individual, o en las decisiones de contratación, promoción o financiación.”  

 DORA considera que es necesario establecer un conjunto de métricas a nivel de artículo que permitan conocer la verdadera aportación de esa investigación, además de evaluar el contenido del artículo en sí mismo. Para ello, además de la recomendación anterior, ofrece una serie de recomendaciones específicas para cada uno de los agentes que intervienen en la evaluación científica. De esas recomendaciones, destacamos las siguientes:   

- A las agencias de financiación y a las instituciones de investigación, les recomienda que consideren el valor de otros productos relacionados con la investigación, como los conjuntos de datos o el software, además de los artículos revisados por pares.

- A las editoriales les recomienda reducir el énfasis en el factor de impacto como herramienta promocional o que lo utilicen dentro de una variedad de métricas, tanto basadas en revistas -tales como SJR, EigenFactor o índice H, como otras métricas a nivel de artículo -tales como el Article Influence Score u otras alternativas. Además, les insta a especificar la responsabilidad de cada coautoría en el artículo -como la propuesta CReDIT. 

- Al personal investigador le recomienda que se basen en el contenido científico, y no en las métricas de publicación y a utilizar diferentes métricas como evidencia del impacto de la investigación.   
 Otras recomendaciones van en la línea de eliminar las limitaciones del número de referencias en los artículos, utilizar en la medida de lo posible investigaciones primarias, fomentar la transparencia y promover prácticas que se centren en el valor y la influencia de los resultados de investigación específicos. 

El modelo de evaluación que propone DORA, por lo tanto, se podría resumir en lo siguiente:  

1. No utilizar las métricas basadas en revistas -especialmente el JIF- cómo única o principal medida a la hora de evaluar un artículo o un investigador.

2. Valorar la calidad del contenido científico de las propias aportaciones.

3. Establecer criterios bien fundamentados y respaldados académicamente para evaluar la investigación. 

4. Utilizar un conjunto de indicadores, instando a desarrollar métricas para una mejor evaluación. 

5. DORA ofrece recomendaciones y buenas prácticas sobre evaluación de la investigación, para que cada agente busque la mejor manera de aplicarlas.   

En conmemoración de los 10 años de la declaración, se ha realizado un llamamiento internacional para impulsar estos principios mediante la realización de eventos en los que se analice el impacto de DORA en la reforma de la evaluación científica y de los desafíos que aún quedan por enfrentar  

 Otras iniciativas sobre evaluación científica

La Declaración de San Francisco fue uno de los primeros manifiestos públicos en promover la urgencia de realizar cambios en la evaluación de la investigación, pero no fue el primero. En 2010 había aparecido el Manifiesto Almetrics, que ya apuntaba que el FI no era una medida adecuada para evaluar la calidad de un artículo, apuntaba a otros productos de investigación y apostaba por métricas basadas en el que denominaban “impacto social” (altmetrics).

 Uno de los que más peso ha tenido en Europa, junto con DORA, es el Manifiesto de Leiden (2014) que, con 10 puntos, coincide con DORA en que la valoración de la calidad la investigación debe basarse en la investigación misma, apoyada por un conjunto de métricas que la complementen y siempre a nivel de lo que se está evaluando. Estos 10 puntos son:   

1. La evaluación cuantitativa tiene que apoyar la valoración cualitativa por expertos.
2. El desempeño debe ser medido de acuerdo con las misiones de investigación de la institución, grupo o investigador.
3. La excelencia en investigación de relevancia local debe ser protegida.
4. Los procesos de recopilación y análisis de datos deben ser abiertos, transparentes y simples.
5. Los datos y análisis deben estar abiertos a verificación por los evaluados.
6. Las diferencias en las prácticas de publicación y citación entre campos científicos deben tenerse en cuenta.
7. La evaluación individual de investigadores debe basarse en la valoración cualitativa de su portafolio de investigación.
8. Debe evitarse la concreción improcedente y la falsa precisión.
9. Deben reconocerse los efectos sistémicos de la evaluación y los indicadores.
10. Los indicadores deben ser examinados y actualizados periódicamente.   

Desde entonces, se han producido diferentes llamamientos desde diferentes órganos a cambios en la evaluación científica, especialmente la Comisión Europea, aunque pocos han llegado a concretarse y a tener una aplicación real. Por ello, con la intención de dar pasos concretos hacia la reforma de la evaluación científica europea, en 2021 se inició un procedimiento de consulta en el que participaron más de 350 organizaciones de más de 40 países y que dio como resultado la publicación del Acuerdo europeo sobre la reforma de la evaluación de la investigación en julio de 2022. El acuerdo incluye los principios, los compromisos y el calendario para las reformas, y establece los principios para una alianza de organizaciones, Coalición por la Evaluación de la Investigación Avanzada (CoARA) que quieran trabajar juntas en la aplicación de los cambios. Estos compromisos son:  

1. Reconocer la diversidad de las contribuciones según la naturaleza de la investigación.
2. Basar la evaluación en elementos cualitativos apoyados en el uso responsable de las métricas.
3. Abandonar el uso inapropiado de métricas de revistas como el JCR.
4. Evitar el uso de rankings de instituciones para la evaluar la investigación.
5. Destinar los recursos necesarios para reformar la evaluación.
6. Revisar y desarrollar criterios de evaluación, herramientas y procesos.
7. Aumentar la concienciación sobre la necesidad de reformar la evaluación y proporcionar transparencia, guía, formación sobre criterios y procesos de evaluación.  

Los firmantes se comprometen a basar la evaluación de la investigación principalmente en un juicio cualitativo en el que la revisión por pares es primordial y queda respaldado por un uso responsable de indicadores cuantitativos. Este compromiso supone iniciar el proceso de revisión o desarrollo de criterios y herramientas alineados con el acuerdo durante 2023 y tenerlo desarrollado completamente a finales de 2027.   

La reforma de la evaluación de la investigación en España  

 En España no han faltado voces reclamando reformas en los procesos de evaluación siguiendo la línea establecida por DORA o Leiden. No obstante, es ahora cuando estamos empezando a vislumbrar una voluntad real por parte de las autoridades y llega determinada por el impulso de la Comisión Europea. 

DORA ha sido firmada por 176 instituciones, entre las que se encuentran la Agencia Estatal de Investigación y la propia Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA). En el caso de esta última, su reciente adhesión -el pasado mes de abril de 2023- supone un replanteamiento de la evaluación de la investigación en España, que a día de hoy sigue muy condicionada por el Factor de Impacto, a pesar de que ANECA ya había firmado el Acuerdo de Leiden en 2021 y de que en los Principios y directrices para la actualización de criterios de evaluación de la investigación que publicó ese mismo año ya se comprometía a "complementar el índice de impacto de las revistas como único indicador de calidad con otros indicadores bibliométricos y/o cualitativos”. No obstante, aunque con buena voluntad, estas medidas no reflejaban con decisión los principios de Leiden y, mucho menos, de DORA.   

Hay que recordar también que el Tribunal Supremo, en las sentencias de 16 de julio de 2020, recurso de casación núm. 2719/2018, y de 12 de junio de 2018, recurso de casación núm. 1281/2017, en relación a las aportaciones presentadas a evaluación ya afirmaba que “es el trabajo –la aportación– no la publicación” lo que debe valorarse.

Estos principios se han ido plasmando en la actualización y reforma del marco legislativo español. La nueva Ley Orgánica del Sistema Universitario, en su artículo 69, especifica además que la acreditación a los cuerpos docentes debe garantizar una a evaluación tanto cualitativa como cuantitativa de los méritos e incluso menciona de forma específica que esa evaluación deberá realizarse “con una amplia gama de indicadores de relevancia científica e impacto social”. De hecho, en el borrador del nuevo Real Decreto por el que se regulará la acreditación se establece la necesidad de integrar las orientaciones del movimiento internacional de reforma de la evaluación de la investigación en Europa promovida por la Comisión Europea y materializada en COARA, estableciendo el reconocimiento de una mayor pluralidad de contribuciones y carreras investigadoras, así como que los criterios de evaluación se centrarán en valorar la calidad de la investigación mediante el “empleo de métodos cualitativos, con el apoyo de un uso responsable de indicadores cuantitativos”.  

 Y en esta misma línea se muestra la recién publicada Estrategia Nacional de Ciencia Abierta (ENCA), que en la línea D3, “Adecuación de los procesos de evaluación del mérito docente, investigador y de transferencia a los parámetros de la ciencia abierta” se especifica que "se disminuirá de forma progresiva el uso de indicadores bibliométricos cuantitativos relacionados con el impacto de las revistas […] en la evaluación de méritos curriculares del personal investigador, incorporándose paulatinamente indicadores cualitativos” y que “se promoverá el uso de criterios de mérito basados en la importancia de las aportaciones científico-técnicas y su contenido”. 

Finalmente, el pasado 12 de mayo ANECA, CRUE y CSIC presentaron una propuesta conjunta de participación en COARA, con el objetivo de crear un espacio colaborativo propio (Spanish Chapter) en el que intercambiar ideas y desarrollar debates y consensos que ayuden a la reforma y mejora de la evaluación en el contexto español. Esperemos que la propuesta tenga éxito y suponga un decidido avance en la reforma de la evaluación de la ciencia en nuestro país.   

ESPAÑA: profesores de la Complutense llevan más de 300 firmas al Rectorado para que corte relaciones con empresas y academias cercanas a ISRAEL

Publicado en El País https://elpais.com/espana/madrid/2024-05-10/los-maestros-de-la-complutense-llevan-mas-de-300-firmas-al-rectorado-para-...