Mostrando entradas con la etiqueta ANECA. Mostrar todas las entradas
Mostrando entradas con la etiqueta ANECA. Mostrar todas las entradas

miércoles, 8 de noviembre de 2023

ESPAÑA: Los investigadores podrán eludir la 'dictadura de los papers' y las revistas científicas

Publicado en elDiario.es
https://www.eldiario.es/sociedad/investigadores-podran-eludir-dictadura-papers-revistas-cientificas_1_10661432.html



Los investigadores podrán eludir la 'dictadura de los papers' y las revistas científicas

La Aneca 'reabre' la ciencia y propone que también se puedan acreditar sexenios de investigación con méritos como patentes, informes, dictámenes, trabajos técnicos o artísticos, exposiciones, catalogaciones o conjuntos de datos, excavaciones arqueológicas o metodologías

Entrevista — Pilar Paneque: “La exigencia de publicar constantemente lleva a un sistema científico de cantidad, no de calidad


Es posible que nunca antes haya habido tanta expectación por algo con un nombre tan poco atractivo como Resolución de la Comisión Nacional Evaluadora de la Actividad Investigadora por la que se publican los criterios específicos aprobados para cada uno de los campos de evaluación. Pero en este documento, que publica cada año la Aneca (la agencia encargada de evaluar la carrera académica del profesorado) para reconocer sexenios de investigación (periodos de seis años, que otorgan al investigador un bono económico y le permiten prosperar en la academia), está buena parte de la clave para cambiar la ciencia, sumida en una espiral cuantitativa que provoca disfunciones y merma la calidad de la investigación.

La nueva directora de la Aneca había prometido hacerlo para sacar a investigadores y universidades de “la dictadura de los papers" que rige el sistema de producción de ciencia. Del temido (y odiado) factor de impacto de las revistas. Este lunes se ha publicado por fin el borrador de la resolución, que además por primera vez sale a consulta pública, (hasta el 19 de noviembre). Y que avanza hacia ese cambio admitiendo nuevos formatos y nuevos soportes como méritos de investigación reconocibles más allá del artículo. Como ya recogía una orden de 1994, hoy olvidada.

Dice el texto: “Se amplía (...) el abanico de aportaciones y posibles medios de difusión que pueden justificar una actividad investigadora durante el periodo evaluado”. Y enumera nuevos posibles soportes: “Publicaciones, patentes, informes, estudios, dictámenes, trabajos técnicos, trabajos artísticos, exposiciones, excavaciones arqueológicas, catalogaciones, etc.”. Añade la Aneca que ante “la situación general de la ciencia en España (...) pueden justificar actividad investigadora los conjuntos de datos, las metodologías y el código de las aplicaciones informáticas desarrolladas”.

Esto quiere decir que la Aneca dejará de valorar exclusivamente como mérito los artículos científicos, donde únicamente se tiene en cuenta la revista de publicación como indicador de la calidad del paper en cuestión. El sistema ya fue así, pero se fue restringiendo con el paso de los años para acabar centrado exclusivamente en las revistas (más cómodo para el evaluador, que solo tenía que ver dónde se publicaba un artículo para valorarlo). Con esta nueva orden, que pedía la comunidad científica, se armoniza la evaluación con la acreditación para ser profesor universitario, abierta ahora al software, la creación artística o los congresos, entre otros nuevos méritos.

“Se realiza un reajuste en la combinación de los métodos cualitativos y los indicadores cuantitativos utilizados para la valoración de las aportaciones presentadas”, sostiene el borrador de resolución.

Otro aspecto novedoso de la propuesta de la Aneca es que “los resultados de la investigación (...) estén disponibles en acceso abierto, cuyo acceso gratuito y libre debe fomentarse mediante el desarrollo de repositorios institucionales o temáticos de acceso abierto, propios o compartidos”. Actualmente, si las revistas donde se publica son de acceso abierto es porque el investigador ha pagado previamente; si no, se paga por leer. Pero alguien suele pagar, y en ocasiones se hace dos veces. En España, en la inmensa mayoría de los casos es siempre dinero público. También es habitual colgar los trabajos en repositorios de acceso restringido (como ResearchGate o Academia)

Entre las novedades de la propuesta de la Aneca de este año está también la creación de un nuevo campo de conocimiento (los sexenios se entregan por áreas) que será interdisciplinar para la actividad investigadora de carácter más transversal y difícil de cuadrar en un campo concreto.

Sin ruptura con lo anterior

Pero el texto tampoco supone una ruptura completa –los sexenios de investigación afectan a un periodo de seis años y no se pueden cambiar las normas de juego a mitad de la partida, según defiende Paneque–, por lo que la resolución mantiene también la estructura anterior: publicar en las revistas que el “ecosistema científico” ha decidido que son las más relevantes (las que más se citan en el sector) sigue siendo un mérito en sí mismo (es la revista la que hace la criba: una vez publicado, se da por bueno que el artículo es de calidad), aunque tampoco será exactamente igual porque habrá que justificar la publicación, como explica la bibliotecaria Amelia López en este hilo.

Uno de los principales problemas que provoca este método, llevan años advirtiendo los expertos, es la deriva que ha sufrido el sector en los últimos años: de pagar por leer, los investigadores han pasado a pagar por publicar, lo que ha generando un mercado de revistas que publican casi todo porque, para ellas, publicar es ganar dinero. También ha provocado que se haga investigación solo para publicar y acumular méritos, según han detectado algunos estudios, sin aportar nada realmente novedoso a la ciencia.

Tras los pasos de Dora y Coara

El movimiento de la Aneca sigue las últimas recomendaciones internacionales, que proponen realizar cambios en la manera en que se evalúa la producción científica. “Aconseja integrar ya en esta convocatoria las orientaciones del movimiento internacional de reforma de la evaluación de la investigación, al que se ha incorporado Aneca en este año 2023 a través de su adhesión a la San Francisco Declaration on Research Assessment (DORA) y a los acuerdos y principios de la Coalition for Advancing Research Assessment (CoARA). En los diversos campos y subcampos de evaluación esto se concreta, conforme a las reglas aplicables a cada disciplina científica, en la solicitud de una narración justificativa de los indicios de relevancia e impacto de cada aportación (métodos cualitativos), apoyados por un uso responsable de indicadores cuantitativos”, explica la agencia.

El texto propone que cada investigador justifique el impacto de su aportación cuando esta se produzca fuera del ecosistema de las revistas tradicionales. También en ellas, de hecho. Esta práctica se realizará por el momento a través de las “aportaciones extraordinarias” que, como su nombre indica, habitualmente han de ser escasas o especiales, pero que este año –o en el ínterin que dure la transición hacia el nuevo sistema– se aceptará con carácter general.

El proceso de evaluación de los méritos presentados, con “criterios y metodologías de evaluación cualitativas y cuantitativas”, tomará como referencia “la narrativa aportada por la persona solicitante en los 'indicios de relevancia e impacto' de cada aportación”, explica el texto. Y pone ejemplos: “Se defenderá el impacto científico de la aportación a través de citas recibidas contextualizadas excluyendo autocitas, de su proyección internacional, de los proyectos nacionales o internacionales que han financiado la investigación o que se han derivado de ella, de los premios recibidos, de las traducciones de la obra, entre otros; y/o la contribución de dicha aportación a la generación de impacto social evidenciado, por ejemplo, a través de aportaciones al diseño e implementación de políticas públicas, contribución al desarrollo de productos y servicios o cualquier otro aspecto que se considere relevante”. Y se recomienda hacer un “uso responsable de indicadores cuantitativos (indicadores bibliométricos normalizados, entre otros)”, en alusión al sistema de revistas.

Según el borrador, que incluye un apéndice con varios cuadros para explicar el nuevo sistema, se permitirán las clásicas métricas de citación, pero también de uso y lectura (volumen de descargas, visualizaciones o visitas), las métricas de influencia o adopción social (menciones a fuentes externas del ámbito académico) y métricas de visibilidad social (plataformas sociales en línea, “preferentemente académicas y especializadas”). También se informa de que se valorará la difusión de las aportaciones en abierto o compartir datos brutos, metodologías, etc. “de forma abierta y transparente”.


miércoles, 13 de septiembre de 2023

ESPAÑA se rebela. ANECA en la encrucijada: el final del reino del factor de impacto

Publicado en El Diario de la Educación
https://eldiariodelaeducacion.com/2023/09/12/aneca-en-la-encrucijada-el-final-del-reino-del-factor-de-impacto/



ANECA en la encrucijada: el final del reino del factor de impacto

por Luis Mariano Torrego Egido
María Verdeja
Ana de Castro
Enrique Díez
12/09/2023



Hasta ahora el sistema de evaluación y acreditación de la carrera profesional del profesorado universitario la realiza la ANECA (Agencia Nacional de Evaluación de la Calidad y la Acreditación) premiando la acumulación de publicaciones cuantificables y comercializables.

Este sistema ha consolidado un modelo de universidad y de ciencia que se caracteriza por basarse en el factor de impacto y por la utilización de los rankings de revistas como criterio principal de evaluación de la investigación. En otras palabras, el éxito científico consiste en publicar artículos (papers) en revistas “internacionales” indexadas en los primeros cuartiles de los rankings bibliométricos derivados de la Web of Science (JCR) o Scopus (SJR), establecidos por dos multinacionales extranjeras, Clarivate y Elsevier.


Este sistema no profundiza en el valor de los artículos en sí, ni en su relevancia científica o social. Además, ha fomentado una extraordinaria competitividad en el seno de las universidades para aumentar la cantidad de papers en las clasificaciones y ha propiciado prácticas faltas de ética que han sido noticia: investigadores que reciben dinero por figurar en el plantel de instituciones universitarias de Arabia Saudí para que éstas asciendan en los rankings o que publican un artículo “científico” cada 37 horas.

Se ha generado así un innegable proceso de capitalismo académico, caracterizado por el oligopolio de las grandes editoriales y distribuidoras de la producción científica, el incremento de los costes por publicación —los autores o sus instituciones pagan por publicar sus artículos— y las conductas oportunistas de buena parte de las multinacionales de las revistas científicas.

Por otra parte, esta espiral de inflación de papers que casi nadie lee, pero que es el “patrón oro” de nuestro sistema de evaluación, ha llevado a convertir la función docente, esencial en la universidad, en un obstáculo para la promoción académica, una “carga docente”. Lo cual devalúa una finalidad clave de la universidad que es proporcionar una formación de calidad a su alumnado.

Además, este modelo incumple los acuerdos internacionales que en materia de ciencia han sido suscritos por los organismos oficiales españoles, desde la Declaración de San Francisco sobre la evaluación científica (DORA), hasta el Manifiesto de Leiden sobre indicadores de investigación, pasando por la Iniciativa Helsinki sobre multilingüísmo en la comunidad científica, así como los principios de CoARA.

Frente a este enfoque productivista y mercantil, necesitamos un modelo de universidad pública al servicio del bien común y comprometida socialmente, así como un sistema de evaluación y acreditación del profesorado universitario que responda a un modelo de ciencia abierta para el bien común.

Por eso el colectivo de profesorado universitario, Uni-Digna, en reunión con la nueva directora de la ANECA, le ha trasladado la urgencia de dar pasos decididos, de una forma negociada y consensuada con los representantes de la comunidad académica universitaria, para establecer un sistema de evaluación de la docencia y de la investigación más justo, que responda a este modelo de ciencia para el bien común, concretados en cuatro propuestas:

  • Que la acreditación del profesorado descarte el uso de métricas basadas en revistas, en especial el denominado factor de impacto.
  • Que colabore en la configuración de una Ciencia Abierta Pública, que elimine los acuerdos transformativos que están suscribiendo las universidades públicas con las editoras transnacionales para financiar con dinero público la publicación de papers (APC: cargos por procesamiento de artículos) que exigen las revistas privadas.
  • Evaluar, desde una visión global, la investigación, concediendo un peso fundamental a su impacto social, para que contribuya a una ciencia para una sociedad sostenible e inclusiva y comprometida con los derechos de los colectivos más vulnerables.
  • Potenciar la investigación de relevancia local y democratizar la evaluación, poniendo en marcha, entre otras medidas, un proceso independiente, democrático y participativo para evaluar “el sistema de evaluación”.

* Colectivo Uni-Digna: Luis Torrego (catedrático de la Universidad de Valladolid); María Verdeja (profesora contratada doctora de la Universidad de Oviedo); Ana de Castro (profesora de la Universidad La Florida – Valencia) y Enrique-Javier Díez-Gutiérrez (profesor titular de la Universidad de León). Forman parte del Colectivo Uni-Digna, colectivo compuesto por profesorado de diversas ramas de conocimiento de las universidades públicas españolas que se han unido para reivindicar un sistema de evaluación y acreditación del profesorado universitario comprensivo, razonable y justo. Su web: https://unidigna.wordpress.com/



martes, 23 de mayo de 2023

DORA: 10 años por el cambio en la evaluación científica

Publicado en Investiga. Monográficos sobre investigación no. 42 (2023) - Biblioteca de la Universidad de Sevilla


DORA: 10 años por el cambio en la evaluación científica

Introducción

En diciembre de 2012, durante la Reunión Anual de la American Society for Cell Biology en San Francisco, se planteó la necesidad de cambiar el mal uso que desde diferentes sectores relacionados con la investigación se estaba dando al Factor de Impacto como métrica de evaluación de la investigación. Seis meses después, en mayo de 2013, esa discusión se plasmaba en una declaración que instaba a agencias de financiación, instituciones, editores, organizaciones que suministran métricas e investigadores a realizar cambios en la evaluación de la investigación mediante una serie de recomendaciones y mejores prácticas: la Declaración de San Francisco sobre Evaluación de la Investigación (Declaration on Research Assessment - - DORA).

Este mes de mayo se cumplen 10 años desde su lanzamiento, en un momento en el que la reforma de la evaluación de la ciencia está de plena actualidad y se suceden las iniciativas en este sentido. En este monográfico haremos un repaso de la Declaración y veremos en qué medida se están planteando sus principios.   

Cambios en los modelos de evaluación de la investigación: ¿una necesidad apremiante?  

La evaluación de la calidad de la investigación es fundamental a la hora de la financiación de la misma, la promoción académica de los investigadores y es la base de todo el sistema de incentivos y recompensas en el mundo académico. Sobre esta base, es evidente que la forma en que se ha estado llevando a cabo ha influido poderosamente en los hábitos de publicación y producción de la investigación.

Evaluar el desempeño del personal investigador mediante el uso exclusivo de ciertos indicadores bibliométricos y el imperio absoluto del IF (JCR) como indicador estrella de la calidad de la investigación, unido al mayor peso de la dimensión investigadora dentro de la carrera académica, ha provocado una adaptación por parte del personal investigador a la hora de seleccionar el medio de difundir los resultados de su trabajo, el formato en que va a publicar (artículo), e incluso, el enfoque del mismo en detrimento de investigaciones más locales de difícil encaje en las grandes revistas internacionales.

Por otro lado, esta creciente necesidad de publicar ha resultado una magnífica oportunidad de negocio para la industria editorial que, facilitada por la transformación digital, no deja de ofrecer oportunidades de publicar cada vez más rápidamente y con “impacto” garantizado.

En estas circunstancias, publicar se ha convertido en un fin en sí mismo y cada vez se hacen más evidentes las consecuencias que provoca en la ciencia la forma en la que se evalúa y se recompensa.

La necesidad de una reforma en la evaluación de la investigación viene de lejos y han sido muchas las voces alertando de lo inadecuado de los sistemas imperantes, no sólo en España, sino en el resto de Europa. La transformación digital, el surgimiento de un concepto de la ciencia más abierto y colaborativo, más multidisciplinar y diversa en sus resultados ha dado el impulso final a las instituciones europeas y nacionales para trabajar en esta dirección.

DORA: 10 años por el cambio en la evaluación científica  

 El punto de partida de DORA es que es urgente cambiar la forma en que se evalúa la investigación científica, ya que los parámetros utilizados para esta evaluación a menudo no son precisos y no se ajustan a los productos que se evalúan. 

Así, considera que, con frecuencia, la evaluación científica se realiza teniendo en cuenta indicadores basados en la calidad de las revistas, sobre todo el Factor de Impacto que, como hemos visto en el apartado anterior, presenta serias limitaciones para medir la calidad científica de la investigación, de un artículo o de los méritos de un investigador. 

Por otra parte, aunque considera que en la actualidad existe una amplia diversidad de productos que muestran resultados de los procesos de la investigación -datos, reactivos, software, propiedad intelectual, etc.- y que algunos de ellos están ganando en importancia, reconoce que el artículo evaluado por pares seguirá siendo fundamental a la hora de evaluar la investigación. 

Ante esto, urge a todos los actores implicados en la evaluación de la investigación a mejorar la forma en la que se evalúa la investigación y ofrece una serie de recomendaciones y buenas prácticas. 

Como recomendación general y, quizás, más importante, indica que el contenido científico de los artículos es mucho más importante que las métricas que analizan las publicaciones o revistas en las que fue publicada la investigación, por lo que pide a todos los agentes implicados en la investigación que no sustituyan la evaluación de la calidad del artículo individuales por métricas basadas en revistas, como el FI.

  “No utilice métricas basadas en revistas, como el factor de impacto, como una medida sustituta de la calidad de los artículos de investigación individuales, para evaluar las contribuciones de un científico individual, o en las decisiones de contratación, promoción o financiación.”  

 DORA considera que es necesario establecer un conjunto de métricas a nivel de artículo que permitan conocer la verdadera aportación de esa investigación, además de evaluar el contenido del artículo en sí mismo. Para ello, además de la recomendación anterior, ofrece una serie de recomendaciones específicas para cada uno de los agentes que intervienen en la evaluación científica. De esas recomendaciones, destacamos las siguientes:   

- A las agencias de financiación y a las instituciones de investigación, les recomienda que consideren el valor de otros productos relacionados con la investigación, como los conjuntos de datos o el software, además de los artículos revisados por pares.

- A las editoriales les recomienda reducir el énfasis en el factor de impacto como herramienta promocional o que lo utilicen dentro de una variedad de métricas, tanto basadas en revistas -tales como SJR, EigenFactor o índice H, como otras métricas a nivel de artículo -tales como el Article Influence Score u otras alternativas. Además, les insta a especificar la responsabilidad de cada coautoría en el artículo -como la propuesta CReDIT. 

- Al personal investigador le recomienda que se basen en el contenido científico, y no en las métricas de publicación y a utilizar diferentes métricas como evidencia del impacto de la investigación.   
 Otras recomendaciones van en la línea de eliminar las limitaciones del número de referencias en los artículos, utilizar en la medida de lo posible investigaciones primarias, fomentar la transparencia y promover prácticas que se centren en el valor y la influencia de los resultados de investigación específicos. 

El modelo de evaluación que propone DORA, por lo tanto, se podría resumir en lo siguiente:  

1. No utilizar las métricas basadas en revistas -especialmente el JIF- cómo única o principal medida a la hora de evaluar un artículo o un investigador.

2. Valorar la calidad del contenido científico de las propias aportaciones.

3. Establecer criterios bien fundamentados y respaldados académicamente para evaluar la investigación. 

4. Utilizar un conjunto de indicadores, instando a desarrollar métricas para una mejor evaluación. 

5. DORA ofrece recomendaciones y buenas prácticas sobre evaluación de la investigación, para que cada agente busque la mejor manera de aplicarlas.   

En conmemoración de los 10 años de la declaración, se ha realizado un llamamiento internacional para impulsar estos principios mediante la realización de eventos en los que se analice el impacto de DORA en la reforma de la evaluación científica y de los desafíos que aún quedan por enfrentar  

 Otras iniciativas sobre evaluación científica

La Declaración de San Francisco fue uno de los primeros manifiestos públicos en promover la urgencia de realizar cambios en la evaluación de la investigación, pero no fue el primero. En 2010 había aparecido el Manifiesto Almetrics, que ya apuntaba que el FI no era una medida adecuada para evaluar la calidad de un artículo, apuntaba a otros productos de investigación y apostaba por métricas basadas en el que denominaban “impacto social” (altmetrics).

 Uno de los que más peso ha tenido en Europa, junto con DORA, es el Manifiesto de Leiden (2014) que, con 10 puntos, coincide con DORA en que la valoración de la calidad la investigación debe basarse en la investigación misma, apoyada por un conjunto de métricas que la complementen y siempre a nivel de lo que se está evaluando. Estos 10 puntos son:   

1. La evaluación cuantitativa tiene que apoyar la valoración cualitativa por expertos.
2. El desempeño debe ser medido de acuerdo con las misiones de investigación de la institución, grupo o investigador.
3. La excelencia en investigación de relevancia local debe ser protegida.
4. Los procesos de recopilación y análisis de datos deben ser abiertos, transparentes y simples.
5. Los datos y análisis deben estar abiertos a verificación por los evaluados.
6. Las diferencias en las prácticas de publicación y citación entre campos científicos deben tenerse en cuenta.
7. La evaluación individual de investigadores debe basarse en la valoración cualitativa de su portafolio de investigación.
8. Debe evitarse la concreción improcedente y la falsa precisión.
9. Deben reconocerse los efectos sistémicos de la evaluación y los indicadores.
10. Los indicadores deben ser examinados y actualizados periódicamente.   

Desde entonces, se han producido diferentes llamamientos desde diferentes órganos a cambios en la evaluación científica, especialmente la Comisión Europea, aunque pocos han llegado a concretarse y a tener una aplicación real. Por ello, con la intención de dar pasos concretos hacia la reforma de la evaluación científica europea, en 2021 se inició un procedimiento de consulta en el que participaron más de 350 organizaciones de más de 40 países y que dio como resultado la publicación del Acuerdo europeo sobre la reforma de la evaluación de la investigación en julio de 2022. El acuerdo incluye los principios, los compromisos y el calendario para las reformas, y establece los principios para una alianza de organizaciones, Coalición por la Evaluación de la Investigación Avanzada (CoARA) que quieran trabajar juntas en la aplicación de los cambios. Estos compromisos son:  

1. Reconocer la diversidad de las contribuciones según la naturaleza de la investigación.
2. Basar la evaluación en elementos cualitativos apoyados en el uso responsable de las métricas.
3. Abandonar el uso inapropiado de métricas de revistas como el JCR.
4. Evitar el uso de rankings de instituciones para la evaluar la investigación.
5. Destinar los recursos necesarios para reformar la evaluación.
6. Revisar y desarrollar criterios de evaluación, herramientas y procesos.
7. Aumentar la concienciación sobre la necesidad de reformar la evaluación y proporcionar transparencia, guía, formación sobre criterios y procesos de evaluación.  

Los firmantes se comprometen a basar la evaluación de la investigación principalmente en un juicio cualitativo en el que la revisión por pares es primordial y queda respaldado por un uso responsable de indicadores cuantitativos. Este compromiso supone iniciar el proceso de revisión o desarrollo de criterios y herramientas alineados con el acuerdo durante 2023 y tenerlo desarrollado completamente a finales de 2027.   

La reforma de la evaluación de la investigación en España  

 En España no han faltado voces reclamando reformas en los procesos de evaluación siguiendo la línea establecida por DORA o Leiden. No obstante, es ahora cuando estamos empezando a vislumbrar una voluntad real por parte de las autoridades y llega determinada por el impulso de la Comisión Europea. 

DORA ha sido firmada por 176 instituciones, entre las que se encuentran la Agencia Estatal de Investigación y la propia Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA). En el caso de esta última, su reciente adhesión -el pasado mes de abril de 2023- supone un replanteamiento de la evaluación de la investigación en España, que a día de hoy sigue muy condicionada por el Factor de Impacto, a pesar de que ANECA ya había firmado el Acuerdo de Leiden en 2021 y de que en los Principios y directrices para la actualización de criterios de evaluación de la investigación que publicó ese mismo año ya se comprometía a "complementar el índice de impacto de las revistas como único indicador de calidad con otros indicadores bibliométricos y/o cualitativos”. No obstante, aunque con buena voluntad, estas medidas no reflejaban con decisión los principios de Leiden y, mucho menos, de DORA.   

Hay que recordar también que el Tribunal Supremo, en las sentencias de 16 de julio de 2020, recurso de casación núm. 2719/2018, y de 12 de junio de 2018, recurso de casación núm. 1281/2017, en relación a las aportaciones presentadas a evaluación ya afirmaba que “es el trabajo –la aportación– no la publicación” lo que debe valorarse.

Estos principios se han ido plasmando en la actualización y reforma del marco legislativo español. La nueva Ley Orgánica del Sistema Universitario, en su artículo 69, especifica además que la acreditación a los cuerpos docentes debe garantizar una a evaluación tanto cualitativa como cuantitativa de los méritos e incluso menciona de forma específica que esa evaluación deberá realizarse “con una amplia gama de indicadores de relevancia científica e impacto social”. De hecho, en el borrador del nuevo Real Decreto por el que se regulará la acreditación se establece la necesidad de integrar las orientaciones del movimiento internacional de reforma de la evaluación de la investigación en Europa promovida por la Comisión Europea y materializada en COARA, estableciendo el reconocimiento de una mayor pluralidad de contribuciones y carreras investigadoras, así como que los criterios de evaluación se centrarán en valorar la calidad de la investigación mediante el “empleo de métodos cualitativos, con el apoyo de un uso responsable de indicadores cuantitativos”.  

 Y en esta misma línea se muestra la recién publicada Estrategia Nacional de Ciencia Abierta (ENCA), que en la línea D3, “Adecuación de los procesos de evaluación del mérito docente, investigador y de transferencia a los parámetros de la ciencia abierta” se especifica que "se disminuirá de forma progresiva el uso de indicadores bibliométricos cuantitativos relacionados con el impacto de las revistas […] en la evaluación de méritos curriculares del personal investigador, incorporándose paulatinamente indicadores cualitativos” y que “se promoverá el uso de criterios de mérito basados en la importancia de las aportaciones científico-técnicas y su contenido”. 

Finalmente, el pasado 12 de mayo ANECA, CRUE y CSIC presentaron una propuesta conjunta de participación en COARA, con el objetivo de crear un espacio colaborativo propio (Spanish Chapter) en el que intercambiar ideas y desarrollar debates y consensos que ayuden a la reforma y mejora de la evaluación en el contexto español. Esperemos que la propuesta tenga éxito y suponga un decidido avance en la reforma de la evaluación de la ciencia en nuestro país.   

viernes, 28 de abril de 2023

ESPAÑA: consolidación de la evaluación de la calidad en el sistema universitario

Publicado en blog Universídad. Una conversación pública sobre la universidad
https://www.universidadsi.es/la-consolidacion-de-la-evaluacion-de-la-calidad-en-el-sistema-universitario-espanol/




La consolidación de la evaluación de la calidad en el sistema universitario español  

28/04/2023

El mapa de las agencias de calidad en España

La recomendación del Consejo de Europa del año 1998 sobre la cooperación europea para la garantía de la calidad en la enseñanza superior y la posterior declaración de Bolonia del año siguiente que impulsó la creación del Espacio Europeo de Educación Superior (EEES), fue el punto de partida de la creación el año 2000 de la European Association for Quality Assurance (ENQA)  y posteriormente  en el año 2008 de la European Quality Assurance Register for Higher Education (EQAR).

Es en este contexto y en el marco de la aprobación de la LOU en 2001, donde se menciona la Agencia Nacional de Evaluación y Acreditación (ANECA). Es a partir de entonces cuando las comunidades autónomas crean sus propias agencias de evaluación, según la transferencia de competencias en materia de universidades de la administración central.

El modelo español de evaluación de la actividad universitaria es un modelo parcialmente descentralizado en el que conviven, con funciones no totalmente coincidentes   la ANECA y las agencias autonómicas.

Para que los resultados de los procesos de evaluación de una agencia sean reconocidos por otras, todas ellas tienen que formar parte del Registro EQAR. Dicho registro en el cual se incluyen las agencias que cumplen los Standards and Guidelines for Quality Assurance in the European Higher Education Area, consta en la actualidad de 55 agencias de 30 países, de las cuales 10 son españolas.

España, con las mencionadas 10 agencias, es el país que tiene más agencias reconocidas, seguida de Alemania con nueve. En EQAR hay 21 países que tienen solo una agencia y los 7 restantes entre 2 y 3. Este hecho obliga a reforzar, con más razón que en otros países, la coordinación entre agencias para evitar que en competencias compartidas se recurra a una u otra agencia en función, por ejemplo, de sus diferentes niveles de evaluación.

Las actividades principales de la evaluación universitaria

Como es sabido, una de las tareas centrales de las agencias de calidad es la evaluación de los programas e instituciones. En este caso, la Ley establece que esta función la pueden llevar a cabo la ANECA y las agencias autonómicas inscritas en EQAR. La ANECA ejerce las funciones de evaluación en aquellas comunidades que o bien no tienen agencia o todavía no están inscritas a la EQAR.

Otra de las actividades que desarrollan las agencias es la evaluación del profesorado. En este caso el modelo español asigna en exclusividad a ANECA la acreditación previa para el acceso a los cuerpos de funcionarios docentes universitarios y, de manera compartida entre ANECA y las agencias autonómicas inscritas en EQAR, la acreditación previa para el acceso a la figura de profesorado contratado y la evaluación de méritos de docencia y gestión.

La recientemente aprobada LOSU indica respecto a la acreditación de los cuerpos de funcionarios docentes que la ANECA acordará, mediante convenio, el desarrollo de la evaluación de dichos méritos y competencias por parte de las agencias de calidad de las comunidades autónomas. Precisa, además, que dicho convenio deberá llevarse a cabo en el plazo de un año desde la entrada en vigor de la LOSU

La ANECA se ocupa, también, de manera exclusiva de la evaluación de los sexenios de investigación (y de transferencia) de los funcionarios docentes.

La LOSU introduce la posibilidad que la ANECA pueda acordar con las agencias de calidad autonómicas, mediante convenio, el desarrollo de la evaluación de dichos méritos individuales.

La ANECA, además, está trabajando tanto para crear un sistema de sexenios docentes que se añadiría al de investigación y transferencia y, también, en la tarea de poner en marcha la primera convocatoria del sexenio de transferencia, una vez llevada a cabo la experiencia piloto.

Una carga burocrática muy elevada y creciente

La consolidación de esta red de agencias de evaluación constituye, sin duda, un elemento esencial del SUE. Sin embargo, el propio funcionamiento de dichas instituciones supone un volumen de trabajo muy elevado tanto para ellas mismas como para las universidades.

A modo de ejemplo, hay que tener en cuenta que el número de titulaciones impartidas en España en el curso 2021-2022 ha sido de 9.131 incluyendo los títulos de grado, máster oficial, doctorado, dobles grados y másteres oficiales. Cada una de estas titulaciones ha de pasar un proceso de verificación y, posteriormente, uno de acreditación.

En lo que hace referencia a los tramos de investigación, ANECA ha gestionado desde su creación más de 275.000 solicitudes y otras 16.791 de tramos de sexenios de transferencias en la convocatoria piloto realizada.

Desde 2008 y en lo relativo a la acreditación del profesorado, ANECA ha atendido 51.690 solicitudes de acreditación para el acceso a los cuerpos funcionarios docentes universitarios. Desde el año 2002, ha gestionado 177.526 solicitudes de evaluación para la contratación de profesorado laboral.

Si a estas cifras le añadimos la tarea llevada a cabo por las agencias autonómicas, es fácil imaginar el ingente volumen de trabajo vinculado a la evaluación universitaria en España.

Nuevos retos en la evaluación de la calidad. Hacia un mayor protagonismo de las universidades

A partir de esta situación, la evaluación de la calidad de las universidades en España ha de abrirse necesariamente a nuevos retos. El primero de ellos debería conducir, aprovechando las posibilidades que ofrece la LOSU, a otorgar un mayor protagonismo, con la indispensable coordinación, en la actividad de evaluación, a las agencias autonómicas que forman parte de EQAR.

Este mejor reparto de tareas debería ir acompañado, también, por el impulso a la acreditación de centros y de la propia universidad. Ello redundaría en una mayor flexibilidad para adaptar los planes de estudios a nuevos requerimientos y una menor carga burocrática para el sistema universitario en su conjunto.

En otras palabras, se trataría de consolidar la acreditación institucional.

Con este mismo objetivo, y en el campo de la evaluación del profesorado, se debería reorientar esta función hacia los modelos que operen directamente a través de los departamentos, con el fin de garantizar la acreditación previa si el departamento está acreditado en los mecanismos de selección y promoción de sus profesores e investigadores. Yendo más allá, se deberían crear las condiciones para la acreditación institucional de las universidades, más allá de la de los departamentos; mucho más cuando la LOSU permite que las universidades se organicen internamente como crean conveniente.

De esta manera, una universidad acreditada institucionalmente debería tener capacidad para desarrollar su oferta docente sin verificaciones previas y llevar a cabo una política de personal sin necesidad de pasar por ese tipo de trámites , hecho que, por otro lado, es la práctica común en la mayoría de los sistemas universitarios.

Un segundo reto va asociado al Real Decreto 822/2021, por el que se establece la organización de las enseñanzas universitarias. Este Real Decreto incorpora el tema de los resultados de aprendizaje como un elemento clave de los procesos de verificación de las titulaciones universitarias.

Este modelo implica sustituir la terminología basada en el tipo de competencias a unas memorias de los títulos donde los programas estén planteados en términos de resultados de aprendizaje (conocimientos, habilidades y competencias).

Finalmente, un tercer reto al que se deberán enfrentar las agencias de calidad es el del aseguramiento de la calidad de la formación permanente y la acreditación de los programas de corta duración, las microcredenciales.

Solo queda por añadir que, en el marco de la iniciativa Universidades Europeas, se deberán organizar los mecanismos de coordinación imprescindibles para la verificación de las titulaciones “europeas”.


jueves, 7 de octubre de 2021

ESPAÑA: ANECA penaliza a los investigadores españoles por publicar en revistas de prestigio Nature, Science o Cell

ESPAÑA: ANECA penaliza a los investigadores españoles por publicar en revistas de prestigio Nature, Science o Cell 

Publicado en ABC.es

https://www.abc.es/sociedad/abci-castells-penaliza-investigadores-espanoles-publicar-revistas-prestigio-202110062155_noticia.html?fbclid=IwAR3CGkWqJqGbMr7FIrGIHLPhWT-s3vPkFk9W8usjjonxU-K3jP2qAMhJ3rU



Castells penaliza a los investigadores españoles por publicar en revistas de prestigio

La Agencia Nacional de Evaluación de la Calidad y Acreditación (Aneca) pone en una lista roja a Nature, Science o Cell a la hora de evaluar la carrera de los científicos

Madrid 
07/10/2021 

«Madrid, 2017. Carmen Vela, secretaria de Estado de Investigación, dice en un acto público: "Publicar en Nature es el sueño de todo investigador". Madrid, 2021, Aneca (agencia del Ministerio de Universidades): Ojo con publicar en Nature que es una revista sospechosa. ¡Cómo ha cambiado la ciencia en España en 4 años!».

Con este tuit, el alicantino Fernando Maestre, uno de los investigadores en cambio climático más influyentes del mundo, de acuerdo con clasificaciones como The Reuters Hot List o la reputada Web of Science, que recoge al 1% de los científicos más citados del mundo, lamentaba que la Aneca le penalice a él y a tantos otros investigadores reputados por publicar en revistas de prestigio.

 «Estamos haciendo el ridículo a nivel internacional: no solo no te premian sino que te penalizan por publicar en Nature», lamenta Maestre.

Detrás de esta medida está la Agencia Nacional de Evaluación de la Calidad y Acreditación (Aneca), que depende del Ministerio de Universidades y tiene como objetivos evaluar, certificar y acreditar enseñanzas, profesores e instituciones. La pasada semana, la Aneca hizo públicos sus nuevos criterios de evaluación de la investigación y puso en el punto de mira a conocidas y prestigiosas revistas como Science, Nature, Cell o Proceedings of the National Academy of Sciences of The United States of America, más conocida como PNAS. «El resultado es gracioso si no fuera porque realmente es trágico; la Aneca está diciendo que las mejores revistas del mundo tienen comportamientos extraños, son sospechosas», critica Isidro F. Aguillo, especialista en bibliometría del Instituto de Políticas y Bienes Públicos del CSIC.

Donde publican los Nobel

En un documento sobre los nuevos criterios de evaluación de la investigación, la Aneca señala que «los trabajos publicados en revistas con un comportamiento editorial no estándar que no permitan garantizar a priori la calidad del trabajo publicado serán objeto de especial análisis que podrán llevar a una rebaja de su consideración o la no aceptación de las mismas». ¿Qué son revistas con un comportamiento editorial no estándar? Según la Aneca, aquellas que tienen un «elevado índice de autocitas o un elevado número de artículos anuales u otros...».

En función de esta definición, la Aneca ha elaborado un enorme listado con revistas clasificadas en función de si su comportamiento no estándar es moderado, alto o muy alto. En esta última categoría (y agrupadas en una lista roja) salen las mejores revistas del mundo. Son las mismas en las que ha publicado el recientemente galardonado Nobel de Medicina, Ardem Patapoutian. Sus artículos con más citas están en publicaciones que forman parte de esta lista roja de la Aneca como las ya mencionadas Cell, Science, PNAS o Neuron.

Capturar a las 'depredadoras'

La lista roja de revistas está publicada en un informe de la Aneca llamado Análisis Bibliométrico e impacto de las editoriales open-access en España. El objetivo es identificar revistas en las que no se debería publicar. Son las llamadas ‘depredadoras’, es decir, las revistas que intentan publicar un máximo número de artículos científicos, con una revisión laxa o sin apenas revisión para así publicar cuanto más artículos mejor y para obtener más dinero.

«El problema es que la Aneca, para intentar averiguar qué revistas son sospechosas o ‘depredadores’, ha usado el criterio de la autocita y no el que realmente importa, y es que la publicación tenga una buena revisión por pares, es decir, cuando un colega de tu categoría revisa tu artículo», explica Aguillo. ¿Por qué ha ocurrido esto? «Porque la Aneca ha decidido contratar a un equipo de investigación para que les haga el informe que no tiene experiencia en bibliometría. Estos señores han decidido que el criterio para evaluar las editoriales es el porcentaje de autocitas, pero este no es el criterio correcto», añade el experto en bibliometría.

Respecto a los criterios usados, Aguillo coincide con el experto mundial en cambio climático: «La Aneca mete a todas las revistas en el mismo saco. La autocita per se no es mala. Una cosa es cuando la propia revista fomenta las autocitas para elevar el índice de impacto (esto es lo que ha premiado la Aneca siempre), y otra situación es cuando una revista se autocita mucho porque publica muchos artículos de calidad que son referencia en sus respectivos campos», apunta Maestre, que añade que «lo más sorprendente es que un documento con tanta trascendencia que afecta al día al día de tantos profesores e investigadores tenga unos análisis tan laxos». «Se está dando a entender que los comités de evaluación usarán estas listas y hay algo muy grave: la Aneca ha aceptado este informe sin revisarlo», añade Aguillo.

Publicaciones señaladas

Por si esto fuera poco, las revistas que han sido señaladas por la Aneca han pasado todos los filtros que establece el Journal Citation Reports (JCR). El JCR es una base de datos muy utilizada que determina la importancia de las revistas dentro de sus respectivas categorías. «Para ser incluidas en el JCR este índice elimina aquellas revistas que no cumplen los mínimos requisitos como, por ejemplo, violar los criterios establecidos de la calidad en la selección de artículos por pares anónimos e independientes», señalan fuentes académicas.

9.000 euros por publicar

La idea de la Aneca, también reflejada en el anteproyecto de ley de Universidades adelantado por ABC, es promover la ciencia abierta o el llamado ‘open access’, es decir, el acceso gratuito a la información científica publicada. «Estamos en una economía de mercado; si todo el mundo quiere publicar en Nature, pues Nature va a cobrar más que otras porque siempre habrá alguien dispuesto a pagar. Pero en este debate se olvida una vía muy importante: el ‘green open access’. Es un modelo en el que publicas el artículo tal y como está aceptado y publicado en una revista, pero sin formatear. El contenido es el mismo y es gratuito. Tenemos que discutir cómo implementarlo y ahí hay que poner el acento, más que si Nature cobra 9.000 euros por publicar. Si cobrara 15.000 habría mucha gente dispuesto a pagarlo. Es la ley de oferta y demanda», concluye Maestre. Fuentes académicas advierten de que lo que ha hecho la Aneca es muy grave y su directora, Mercedes Siles Molina debería dimitir.

La inseguridad jurídica de Castells

La decisión de la Agencia Nacional de Evaluación de la Calidad y Acreditación (Aneca) de penalizar la publicación en las mejores revistas es un problema en sí mismo, pero trae otro aparejado. El anteproyecto de ley de Universiades (LOSU), adelantado por ABC, modifica puntos esenciales de la carrera docente que también son ahora abordados por la Aneca. Como publicó ABC, el Consejo de Estado ya advirtió a Castells de que es inseguro jurídicamente cambiar normas reglamentarias con carácter previo a la modificación de leyes orgánicas. «Y esto mismo es de aplicación a las normas que la Aneca establece para la evaluación del personal docente. Es irracional modificar los criterios de evaluación y dentro de un año volver a cambiarlos cuando se apruebe la LOSU. Los docentes planifican su investigación a seis años vista y no se les puede modificar los criterios cada año y medio, es cambiar las reglas de juego a mitad del partido», opinan fuentes universitarias. 








Plan 2.0 para el acceso abierto: ¿un plan o una nueva ambigüedad?

Publicado en THE Times Higher Education https://www.timeshighereducation.com/news/plan-s-20-open-access-plan-bold-may-prove-ineffective   El...