Mostrando entradas con la etiqueta Publicar o perecer. Mostrar todas las entradas
Mostrando entradas con la etiqueta Publicar o perecer. Mostrar todas las entradas

viernes, 14 de abril de 2023

La caída de revistas fraudulentas destapa las vergüenzas de la ciencia ¿española... o mundial?

Publicado en El Confidencial
https://www.elconfidencial.com/tecnologia/ciencia/2023-04-10/caida-revistas-fraudulentas-ciencia-espanola_3606764/


¿CÓMO LO ARREGLAMOS?

La caída de revistas fraudulentas destapa las vergüenzas de la ciencia española

Muchos investigadores, sobre todo de pequeñas universidades privadas, publican trabajos de escasa calidad en revistas que ahora son señaladas por sus malas prácticas

Por José Pichel
10/04/2023 

  Los científicos obtienen financiación, tanto pública como privada, para realizar investigaciones que amplían nuestros conocimientos y contribuyen a solucionar problemas. Los resultados, examinados por otros expertos, se comparten en revistas especializadas. Estas publicaciones sirven, a su vez, para evaluar la calidad del trabajo realizado por los investigadores y concederles nuevos proyectos que les permitan continuar con su carrera científica y aumentar sus contribuciones a la sociedad. Sobre el papel, no parece un mal procedimiento, pero como cualquier sistema, es susceptible de llegar a pervertirse y corromperse. Los ejemplos abundan.

Las revistas cobran barbaridades por la publicación de artículos y por las suscripciones de las universidades y los centros de investigación que los producen, lucrándose con dinero público y alimentándose del trabajo gratis de los científicos que revisan los artículos. Al mismo tiempo, los investigadores se ven presionados para publicar a toda costa, especialmente al inicio de sus carreras, ahogados por sistemas burocráticos tan absurdos como inflexibles que exigen resultados inmediatos en medio de una competencia feroz; y no falta quienes se aprovechan de su situación para vender servicios fraudulentos, como la publicación de estudios falsos que engordan los currículos. El lío es monumental y parece poner en cuestión la forma de crear y compartir conocimiento más sólida y fiable que ha inventado el ser humano. Un caso reciente ilustra muy bien la situación y, además, pone el foco en la ciencia española. 

El pasado 20 de marzo, la Web of Science expulsó a un gran número de revistas de sus listados. Este servicio online de información científica, que pertenece a la empresa Clarivate Analytics, es una colección de bases de datos de referencias bibliográficas y citas de publicaciones periódicas. Además, incluye herramientas destinadas a analizar la relevancia de las revistas científicas, como el Journal Citation Report (JCR). A día de hoy, en la mayor parte de los procesos de evaluación científica en todo el mundo se utiliza otro de sus indicadores más destacados, el factor de impacto, que es el patrón oro para la evaluación de la investigación y los investigadores. No es una novedad que alguna publicación se caiga cada año por distintos motivos, pero esta vez llama la atención que hayan sido 82. Por eso, dos expertos han querido analizar cómo afecta este fenómeno a la ciencia producida en España y han sacado conclusiones realmente jugosas que ya han colgado en internet. 

Los expertos en documentación científica Ángel Delgado Vázquez, investigador de la Universidad Pablo de Olavide de Sevilla, y Rafael Repiso, de la Universidad de Málaga, destacan en su análisis que una de las revistas expulsadas es International Journal of Environmental Research and Public Health (IJERPH), que aglutina el mayor número de trabajos españoles de los dos últimos años y que, además, es la segunda revista del mundo en producción total en el año 2022. Es probable que su amplia temática, que abarca casi cualquier aspecto relacionado con la salud y el medio ambiente, ayude mucho a tener esos resultados. Esta publicación pertenece a la editorial MDPI (Multidisciplinary Digital Publishing Institute), que ya ha sido cuestionada por la calidad de la revisión por pares y criticada por impulsar la cantidad frente a la calidad como una forma de hacer dinero. Un dato llama especialmente la atención y deja en mal lugar a la ciencia española: mientras que en el conjunto de las revistas científicas los artículos firmados por autores españoles no llegan al 3,5%, en el caso de la cuestionada editorial MDPI casi llegan al 11%. 

El coste de publicar un artículo ronda los 1.800 euros, según calculan estos autores, ya que esa información no es pública. De esta manera, el presupuesto que ha destinado España a difundir resultados científicos en las revistas que han sido expulsadas ahora de la Web of Science supera ampliamente los 12 millones de euros en los últimos cinco años, ya que suman más de 7.000 artículos (la inmensa mayoría, en una sola publicación, IJERPH, con 5.437). Todo ese dinero sale de los fondos destinados a proyectos de investigación españoles, tanto de planes nacionales como europeos.

Los responsables de Clarivate han explicado que están usando un sistema de inteligencia artificial para detectar conductas fraudulentas y que han identificado en torno a 500 posibles casos. Por el momento, no han aclarado los motivos por los que han sido expulsadas las 82 revistas de este año, pero el intercambio de citas y el exceso de autocitas, conductas que inflan de manera artificial los indicadores, han sido los más importantes en otras ocasiones. Con el sistema creado para las revistas tradicionales, a más citas promedio, los autores mejoran su reputación. "Por eso, algunas revistas, editoriales y a veces los propios autores deciden tirar por la calle de en medio y generar citas artificiales para posicionarse mejor, principalmente autocitas", explican Delgado y Repiso en declaraciones a El Confidencial

En el documento que han compartido en internet, Delgado y Repiso recuerdan que las malas prácticas, en algunos casos, son bien conocidas y denunciadas, pero van a más en los últimos años. Uno de los párrafos de su análisis resulta especialmente demoledor, cuando resumen la situación asegurando que las revistas fraudulentas como IJERPH "atraen a una legión de investigadores, oportunistas, que bajo la promesa de una revisión fácil y rápida, no dudan en gastar dinero, casi siempre ajeno y público, en blanquear como artículos de impacto trabajos que difícilmente tendrían cabida en las tradicionales revistas de prestigio". 

¿Qué pasa con las pequeñas universidades privadas? 

Pero ¿quiénes recurren a esta vía? Probablemente, esta es la parte que más va a dar que hablar de todo el trabajo. Los autores elaboran una clasificación con las universidades que tienen un mayor porcentaje de producción científica en las revistas expulsadas y todas siguen un patrón: las cinco primeras son pequeñas y privadas, "con poco músculo científico", aclaran, "las que suelen ocupar las últimas posiciones en los rankings", si es que aparecen: la Universidad Pontificia de Salamanca, la Universidad Internacional de Valencia, la Universidad Europea del Atlántico, la Loyola de Andalucía y la Europea de Madrid.

Si vamos al número total de artículos publicados, ya aparecen universidades públicas (Granada, Valencia, Extremadura, Sevilla y Almería), aunque en alguno de estos casos el dato es poco significativo, debido a que se trata de instituciones que publican mucho y el porcentaje de su producción en IJERPH es realmente pequeño con respecto al total. En cualquier caso, las que salen mejor paradas porque casi no publican en esta revista son las tres grandes universidades de Cataluña (Politécnica, Autónoma y Barcelona) junto con la Universidad de La Laguna y la Universidad de Navarra. 

¿Qué nos revelan estos datos? Según los autores, ha habido universidades privadas que han comenzado a investigar y publicar masivamente de manera muy reciente. El motivo es que están presionadas por la legislación más nueva (sobre todo, por el Real Decreto 640/2021, de 27 de julio, de creación, reconocimiento y autorización de universidades y centros universitarios). "Establece condiciones muy estrictas en cuanto a resultados de investigación para poder conceder o retirar autorizaciones para poder expedir títulos universitarios", comentan. Por eso, no investigar y no demostrar que lo están haciendo amenaza su negocio. El problema es que "una estructura científica productiva no se crea de la noche a la mañana, por lo que hay una gran tentación de utilizar atajos para tener resultados rápidos", opinan Delgado y Repiso. En todo caso, tanto estas como algunas de las públicas que señala su estudio "son centros pequeños donde quizá la producción en determinadas revistas se diluye menos entre el total de la producción", recuerdan. 

La clave del problema y las soluciones 

Al margen de este caso puntual que afecta a ciertas instituciones, lo cierto es que se ha establecido un círculo perverso: los investigadores consiguen fondos públicos, invierten gran parte de ellos en publicar trabajos de escasa calidad con los que financian revistas fraudulentas, lo que a su vez les permite avanzar en su carrera. Sin embargo, no realizan aportaciones relevantes a la ciencia. ¿Dónde está el punto clave? Los expertos creen que en la evaluación. Los investigadores sufren una gran presión por publicar y una alta competitividad para conseguir puestos estables. A partir de ahí, "algunos buscan su particular dieta milagro en ciertas revistas". Para ello usan tanto fondos públicos como fondos propios (no todos los investigadores tienen financiación adicional, sobre todo aquellos que están comenzando). Siguiendo con la metáfora, "algunas publicaciones prometen perder peso sin pasar por el gimnasio", es decir, que tienen "una baja tasa de rechazo, tiempos de revisión y publicación muy por debajo de la media, entre otros factores". Para alguien que tiene prisa "es una oferta excelente", aseguran. Por otra parte, "en España apenas se persiguen los deméritos científicos, y al no tipificarse y penalizarse se están incentivando". Publicar es parte esencial del trabajo científico. (Reuters) 

El llamado publish or perish (publicar o perecer) es un problema mundial, "aunque en España la presión es más por publicar en determinadas revistas que por publicar mucho", destacan los autores del análisis. En ese sentido, tanto IJERPH como otras revistas abren una puerta a publicar en el grupo de revistas "escogidas", con "tiempos de revisión más rápidos y con una tasa de aceptación más alta, lo que las hace muy atractivas". 

¿Qué pasará con los artículos expulsados de la base de datos de la Web of Science? "Con la normativa actual española, seguirán siendo valorados, puesto que esta revista permanece en posiciones destacadas de Scopus", otro producto análogo que también se usa como referente en la evaluación. En cualquier caso, los autores del análisis se felicitan de que hace pocos días la Aneca (Agencia Nacional de Evaluación de la Calidad y Acreditación) se ha adherido a las declaraciones de DORA y CoARA, que "priorizan evaluaciones más profundas, relativizadas a los trabajos científicos". ¿Será esta la solución? En realidad, aún no se sabe qué cambios prácticos va a tener esto en las actuales evaluaciones. 

Más allá del problema de la evaluación de los investigadores, Delgado y Repiso hacen otra propuesta: recuperar las riendas en los canales de publicación de resultados, esto es, "dotarse de plataformas que permitan comunicar la ciencia con un menor coste para todo". En ese sentido, "tenemos que ser proactivos e invertir en nuestras revistas, y no solo en la edición, sino también en el control de la calidad de las mismas". Las revistas españolas "deben ser una alternativa a los grandes monopolios editoriales", aseguran, una tarea para la que "tenemos los equipos humanos, pero nos faltan los recursos". 

En cualquier caso, a pesar de todos los problemas, el sistema de publicaciones que sustenta la actividad científica sigue más vivo que nunca. "Vivimos, si acaso, tiempos de ajuste", admiten. "Se están produciendo y se van a producir cambios significativos, pero tienen más que ver con adaptar el sistema para que siga cumpliendo su verdadero fin, el de diseminar el conocimiento científico y permitir la conversación entre investigadores y el avance de la ciencia". De hecho, las revistas científicas tradicionales salen reforzadas de ciertas polémicas. "La inmensa mayoría de editoriales y publicaciones aplican procesos editoriales exquisitos y no hay que olvidar que son los propios científicos, mediante la evaluación por partes, los verdaderos garantes de la calidad de lo publicado. El prestigio es un intangible muy preciado para las revistas científicas, en algunos casos han tardado décadas en adquirirlo, por eso es mucho más difícil que lo pierdan", añaden.  

miércoles, 4 de enero de 2023

Publicar o perecer: el conocimiento científico se expande, pero la innovación disruptiva se estanca

Publicado en El País
https://elpais.com/ciencia/2023-01-04/publicar-o-perecer-el-conocimiento-cientifico-se-expande-pero-la-innovacion-disruptiva-se-estanca.html


Publicar o perecer: el conocimiento científico se expande, pero la innovación disruptiva se estanca


Un estudio asegura que los descubrimientos más rompedores en ciencia se han mantenido constantes en los últimos 60 años y los investigadores lo achacan al diseño del mundo académico

La innovación científica se está estancando. Pese al aumento exponencial del conocimiento científico durante el siglo XX respecto al resto de la historia registrada, un análisis de millones de publicaciones académicas y patentes tecnológicas de los últimos 60 años infiere un descenso paulatino en la disrupción. Los propios incentivos perversos que genera el ámbito investigador han podido ser los culpables: la necesidad de publicar constantemente para ser relevante en el mundo académico o la vasta dimensión del conocimiento, que vuelve prácticamente imposible seguir lo que ocurre más allá del nicho de estudio de un científico. Es la conclusión de una revisión bibliográfica que publica hoy la revista científica Nature, tras revisar 45 millones de artículos científicos y cerca de cuatro millones de patentes.

"La innovación disruptiva en ciencia es lo que rompe con la forma de pensar hasta ese momento, un conocimiento o una tecnología que abre nuevas áreas de investigación"
Rusell Funk, Universidad de Minnesota

Los investigadores Russell Funk y Michael Park, de la Universidad de Minnesota, señalan en este estudio un descenso pronunciado en la innovación disruptiva que cambia el statu quo del momento, en áreas académicas como la ingeniería y la física, pero también en el registro de patentes para nuevas tecnologías o fármacos. La revisión de Funk y Park desarrolla un índice propio donde jerarquiza millones de investigaciones científicas y patentes registradas entre 1945 y 2010, y los categoriza en un baremo entre lo disruptor —como puede ser el descubrimiento de la doble hélice de ADN por parte de Francis Crick, James Watson y Rosalind Franklin— o que asienta y amplía el conocimiento científico previo. La innovación disruptiva en ciencia es “algo que rompe con la forma de pensar o hacer las cosas hasta ese momento y resulta en un conocimiento científico o una tecnología que abre nuevas áreas de investigación”, según define Funk, el investigador principal de este estudio.

Entre las cifras de la evaluación de los trabajos destaca un descenso de más del 90% en innovación en ciencias sociales o física y del 80% en el registro de tecnología como, por ejemplo, microprocesadores o telecomunicaciones, o un 91,5% en el caso de los fármacos en medicina. Además de las citas de otros trabajos, los investigadores evalúan el lenguaje utilizado en los estudios durante más de medio siglo y lo correlacionan con las investigaciones que han sido galardonadas con el Nobel, que se tratan de 635 premiados.

Funk reconoce las limitaciones de su modelo y entiende que todos estos análisis son “formas aproximadas acercarse al conocimiento” y los realizan para ir más allá de las simples referencias en los trabajos. “Al final no sabes por qué se cita algo. Asumimos que las referencias a trabajos científicos previos representan bloques de conocimiento en construcción, pero pueden significar cualquier cosa, como que los autores citen a los que creen que serán sus supervisores o menciones favorables a los editores”, reflexiona el autor.

Los investigadores de la Universidad de Minnesota consideran que los resultados de su revisión no suponen que “nos encontremos ante el fin del conocimiento”, matizan en sus conclusiones, sino que el estancamiento en la innovación puede ser una consecuencia del modelo de producción científica actual. Para Funk esto se debe a que “una forma en las que las instituciones evalúan la calidad académica de los investigadores es, en gran medida, basándose en su productividad en la publicación de artículos, y por eso los científicos están muy centrados en producir cosas, porque es una métrica del éxito”. En las conclusiones de su investigación, los autores critican que ese modelo puede ser bueno para el investigador, pero malo para el conocimiento en su conjunto.

Publicar o perecer

Lo que se conoce coloquialmente como “publicar o perecer” es uno de los problemas derivados del sistema académico. Un modelo que fomenta dinámicas perjudiciales porque obliga a los investigadores a publicar estudios de forma constante con el fin de mantener su relevancia académica, optar a financiación o, incluso, de mantener su trabajo. Funk apunta a este problema como uno de los culpables del continuismo investigador, ya que no permite experimentar ni adentrarse en otros campos del conocimiento.

Un ejemplo de esta situación se da en los trabajos que referencian estudios muy antiguos, lo que quiere decir que el autor no se ha actualizado, o cuando los académicos se autocitan en exceso. El autor principal señala que “es una práctica común que un investigador cite su propio trabajo, ya que no quiere romper con su línea de investigación, pero eso impide la disrupción”.

Sabemos que la innovación surge de probar cosas nuevas y tomar ideas de distintos campos, si solo tienes tiempo para publicar, eso no te permite pensar ni leer de otras áreas
Michael Park, Universidad de Minnesota

La profundidad del conocimiento, la ingente cantidad de horas de especialización que requiere dominar un campo científico, también deviene en problema. En el estudio apuntan a que los científicos se basan en cada vez menos variedad de fuentes y esto apunta a que su ventana de conocimiento se ha reducido, por lo que la complejidad de la ciencia acaba generando silos aislados unos de otros. “Sabemos que la innovación surge de probar cosas nuevas y tomar ideas de distintos campos”, detalla Park. “Si solo tienes tiempo para publicar, eso no te deja tiempo para pensar ni leer de otras áreas”, añade. Para el coinvestigador del estudio, un modelo que incentive la innovación debería potenciar el citar trabajos de otros ámbitos diferentes: “En estudios estadísticos previos se ve que la disrupción está relacionada con un conocimiento amplio, una mezcla variada de estudios”.

Lejos de pretender sonar pesimistas o alarmistas, los investigadores afirman que la disrupción “se mantiene constante” a lo largo de las décadas, por lo que no es culpa de la calidad de los estudios. “No es que todo sea malo, pero debería haber un mayor equilibrio entre la innovación y el conocimiento asentado”, apunta Funk, quien anima a que es necesario repensar las estrategias de producción científico-tecnológicas en el futuro. “Al final, nos interesan las ideas y el conocimiento científico, no nos deberíamos de preocupar por las citas”, sentencia el autor.

domingo, 26 de septiembre de 2021

¿Publicación o innovación?: los efectos nocivos del paso del "gusto por la ciencia" al "gusto por publicar" / ¿Ayudarán las métricas "responsables"?

 Publicado en blog Impact of Social Science - London School of Economics (LSE)

https://blogs.lse.ac.uk/impactofsocialsciences/2021/07/19/publication-or-innovation-goal-displacement-and-lessons-from-the-publish-or-perish-culture/ 



¿Publicación o innovación? Desplazamiento de objetivos y lecciones de la cultura de publicar o perecer

Harry Van Dalen

19 de julio de 2021

Basándose en una encuesta realizada a economistas académicos de los Países Bajos, Harry van Dalen¸ explora cómo se percibe y se pone en práctica la cultura de publicar o perecer dentro del mundo académico. Argumentando que la actual organización de la academia según líneas que promueven los resultados (publicaciones) desplaza tanto el objetivo de formas de innovación científica más intrínsecamente motivadas como a quienes las persiguen, defiende una forma de gestión académica más centrada en las aportaciones y en la promoción de académicos con "gusto por las ideas", más que por las publicaciones.

La ciencia se ha caracterizado durante mucho tiempo como una profesión en la que el ganador se lo lleva todo, en la que la atención y las recompensas están muy sesgadas. Los primeros sociólogos de la ciencia consideraron que los incentivos no comerciales dominaban estos procesos y la comunidad académica. La carrera por resolver los grandes rompecabezas de la ciencia y, al hacerlo, obtener el reconocimiento de los compañeros era muy apreciada; el dinero o el empleo eran secundarios, un bonito efecto secundario. Hace unos años, escribí sobre cómo este elemento de "todos ganan" afectaba a los demógrafos académicos. Sin embargo, incluso en el relativamente corto espacio de tiempo transcurrido desde entonces, la competencia y la búsqueda de superestrellas ha aumentado en casi todos los campos de la vida. La ciencia no ha sido una excepción, y aunque en aquel momento parecía que los incentivos de mercado estaban desplazando a los incentivos de la "vieja escuela", las métricas no han hecho más que dominar, ya que son fundamentales para conseguir becas, ingresos de por vida y empleo. Actuar de acuerdo con las métricas se ha convertido en una estrategia dominante para los académicos.

En un artículo reciente (recent paper) he querido explorar si estas impresiones son ciertas y ver cómo la cultura de publicar o perecer se manifiesta en la práctica entre diferentes investigadores, en este caso, economistas que trabajan en universidades holandesas. Basándome en un análisis de clases latentes (latent class analysis), detecté una clara división. Alrededor de dos tercios perciben que esta presión tiene tanto ventajas como inconvenientes graves (comportamiento poco ético, dar la espalda a los problemas locales) y un tercio sólo percibe ventajas y ningún inconveniente.

Dado que la mayoría de los académicos están de acuerdo en que la presión de publicación no es inofensiva, es extraño que esta cultura parezca inexpugnable. Sin embargo, lo que comenzó como una característica relativamente benigna de la cultura académica estadounidense en los años 40 y 50 es ahora un asunto serio. El principio de que los científicos deben demostrar su valor por su producción está firmemente establecido en la política gubernamental, en las universidades y, en consecuencia, en la práctica de los académicos individuales. O se hace o no se hace, y los contratos reflejan esta postura. La figura 1 da una idea de cómo la publicación de los trabajos es el principal factor de presión en las universidades actuales, aunque no hay que descartar que la presión de la financiación y la enseñanza se sumen a ella.


Figura 1: La presión de trabajo percibida en los departamentos de economía holandeses para una serie de puestos académicos, 2015-2016 Nota: la presión muy alta se define aquí como los encuestados que informan de un 8 o más en la escala de 10 puntos de presión en la enseñanza, la publicación, la adquisición de fondos y la administración. Fuente: Van Dalen (2021).

Para los que están en la cola de la promoción, los profesores asistentes y asociados, la presión es mayor. Sin embargo, cabe destacar que incluso entre los profesores titulares (de los que se puede esperar que hayan descubierto cómo gestionar un flujo constante de publicaciones) cerca del 60% sigue percibiendo esta presión como muy alta. Para sus directores -universidades e institutos de investigación- la presión no es un problema real, su problema es generar o mantener fondos, ya que tienen que informar al gobierno o a otro director de que lo que hace la universidad está bien. Esto se demuestra subiendo en las clasificaciones proporcionadas por Times Higher Education (THE), QS World University Ranking, la clasificación de Shanghai (ARWU), o cualquier otra clasificación que sea relevante.

Desplazamiento de objetivos

El aspecto preocupante de este patrón es que la presión de publicación se ha convertido en algo dominante. La presión puede ser saludable, pero cuando la publicación en las mejores revistas se convierte en el único objetivo, se convierte en un vicio. Abrazar la competencia basada en métricas científicas imperfectas es una receta para la locura de gestión que Kerr describió una vez tan vívidamente: la locura de recompensar A (publicaciones), mientras se espera B (ideas científicas). Al final, se acaba teniendo A y no B. Así, las universidades se encuentran en la posición de promover a aquellos educados y recompensados por el "gusto por la publicación" en lugar del "gusto por la ciencia o la innovación".

Para dar un ejemplo de cómo afecta esto a los economistas del estudio: el 63% del profesorado percibe que su universidad no se preocupa por el contenido de sus publicaciones, sólo por dónde y cuánto se publica. La preocupación por un conjunto fijo de cinco revistas principales (top-five journals), en las que los economistas deberían haber publicado sus trabajos, y en las que se basan los requisitos de permanencia, es el ejemplo más claro. Un “top-five” que parece generar mucha insatisfacción entre los economistas de todo el mundo(dissatisfaction among economists worldwid): según la mayoría de los economistas la investigación debería ser más relevante para las políticas, multidisciplinar y "disruptiva".

Este tipo de normas (sociales) sobre la cantidad, el lugar y el contenido de las publicaciones puede llevar a los académicos a abandonar la carrera académica -de hecho, el 33% de los economistas de la encuesta declararon que habían pensado en dejar el mundo académico debido a la presión de las publicaciones- o empujar a los científicos a funciones que no se corresponden con sus cualidades. Esto refleja la crítica de Akerlof (Akerlof’s) de que las instituciones actuales de publicación y promoción ofrecen incentivos sesgados que conducen a lo que él llama "los pecados de omisión": la economía como disciplina tiende a ignorar temas y problemas importantes que son difíciles de medir de forma "dura". La investigación cualitativa es, por ejemplo, más difícil de publicar que la cuantitativa.

Cómo devolver el genio a la botella

Tal y como se desprende de mi estudio, los académicos son en general escépticos, cuando no directamente negativos, respecto al principio de publicar o perecer. Existe una tendencia generalizada a denunciar las métricas de uso cotidiano en el mundo académico. La principal dificultad de denunciar las métricas es que "el genio está fuera de la botella" y será difícil volver a meterlo dentro. En primer lugar, las métricas se han convertido en parte del modelo de negocio de las universidades. Abstenerse de utilizar las métricas es como pedir a Facebook o Twitter que eliminen su botón de "me gusta" o "compartir/retuitear". En segundo lugar, denunciar las métricas estándar sólo puede conducir al uso de métricas más refinadas que cubran nuevas dimensiones (como la relevancia social y la ciencia abierta), lo que podría conducir a una mayor burocracia y a nuevas formas de desplazamiento de objetivos.

La pregunta más interesante pero difícil sería: ¿cuál es la mejor manera de gobernar la universidad de hoy en día sin recurrir a la métrica? Lo que las universidades han conseguido hasta ahora es seleccionar y educar a los miembros con "gusto por las publicaciones" y no necesariamente a los que tienen "gusto por la ciencia". Dada la facilidad con la que el desplazamiento de objetivos se ha convertido en algo habitual, no ofrece muchas esperanzas a todos aquellos defensores que quieren cambiar o idear una métrica responsable. De este modo, el científico actual y futuro corre el riesgo de convertirse en un científico sin carácter, arrastrado por métricas cambiantes, políticos y grupos de interés con un apetito infinito de "gestión por métricas".

Recompensar la producción en forma de publicaciones y citas fue inicialmente una forma de deshacerse de la oligarquía académica de la vieja red de chicos. La alternativa a esta forma de gobierno sería un gobierno por "control de entrada": seleccionar, educar y socializar a los miembros con "gusto por la ciencia". Ni que decir tiene que este modelo de gobernanza tiene sus defectos y puede reavivar los problemas del pasado, algo que reconocen sus partidarios. Pero, cuando las universidades quieren esforzarse por la innovación científica y apreciar la libertad académica, necesitan recuperar su autonomía, ser dirigidas por gestores que conozcan la ciencia desde dentro y que hayan aprendido las lecciones de la cultura de publicar o perecer: jugar a la clasificación con métricas imperfectas da resultados imperfectos.

Este post se basa en el artículo del autor, How the publish-or-perish principle divides a science: the case of economists, publicado en Scientometrics.

Harry Van Dalen

Harry van Dalen es profesor titular del Departamento de Economía de la Tilburg School of Economics and Management


***********************

Plan 2.0 para el acceso abierto: ¿un plan o una nueva ambigüedad?

Publicado en THE Times Higher Education https://www.timeshighereducation.com/news/plan-s-20-open-access-plan-bold-may-prove-ineffective   El...