Mostrando entradas con la etiqueta Bibliometría. Mostrar todas las entradas
Mostrando entradas con la etiqueta Bibliometría. Mostrar todas las entradas

jueves, 15 de junio de 2023

LIBRO: Introducción a la Bibliometría Práctica

Descargar en: http://eprints.rclis.org/44155/1/LIBRO%20DEFINITIVO%20DE%20BIBLIOMETRIA.pdf




Introducción a la Bibliometría Práctica
          

Matos Uribe, Fausto Francisco and Contreras Contreras, Fortunato and Olaya Guerrero, Julio César . Introducción a la Bibliometría Práctica., 2023 Asociación de Bibliotecólogos del Perú. [Book]


Available under License Creative Commons Attribution Non-commercial.
Download (2MB) | Preview
    English abstract:  Bibliometrics book that deals with the panoramic vision of the bibliometric laws with their respective exercises to be developed in a practical way.

    Date deposited: 
    10 Jun 2023
    Last modified: 
    10 Jun 2023 

    Introducción a la Bibliometría Práctica
    Autores:
    ©Fausto Francisco Matos Uribe
    ©Julio César Olaya Guerrero
    ©Fortunato Contreras Contreras
    Editado por
    ©Asociación de Bibliotecólogos del Perú
    Calle Hipólito Bernardette Nº 106 – Barranco
    Telef. 997684606
    contacto@abp.org.pe
    Lima − Perú
    Primera edición, marzo 2023
    Tiraje: 100 ejemplares
    Hecho en depósito Legal en la Biblioteca Nacional del Perú Nº.°2023-01866
    ISBN: 978-612-48342-4-0
    Se terminó de imprimir en marzo del 2023 en:
    Oscar Ricardo Retamozo Ramos
    Avenida Ignacio Merino Nº 1738 - Lince













    lunes, 8 de mayo de 2023

    El 'efecto cobra', o por qué la obsesión por los rankings y las métricas genera corrupción

    Publicado en El Mundo
    https://www.elmundo.es/tecnologia/innovacion/working-progress/2023/04/30/644d3fcefc6c8301178b456f.html


    El 'efecto cobra', o por qué la obsesión por los rankings y las métricas genera corrupción

    • JUANJO BECERRA
    • ULISES CULEBRO (ILUSTRACIÓN)
    Actualizado Martes, 2 mayo 2023

    El soborno a investigadores españoles para escalar en los rankings universitarios usando su impacto científico es el último ejemplo de cómo la obsesión por medirlo todo para optimizar las decisiones políticas y económicas suele provocar el efecto contrario.

    Suele decirse que lo que no se evalúa, se devalúa. Que lo que no se mide, acaba por tener una desmedida tendencia a empobrecerse. Pero no habla de eso este reportaje, sino de lo contrario: de cómo la obsesión actual por reducir la realidad a métricas, rankings y parámetros no solo propicia igualmente la mediocridad, sino que acaba por corromper la realidad que se pretende medir.

    El último ejemplo de ello es la revelación de que Arabia Saudí ha estado pagando a científicos españoles de alto impacto para que firmaran sus artículos como si trabajaran en ese país en lugar de los centros españoles en los que están contratados. Todo ello, como forma de subir en los rankings internacionales de universidades.

    Lo cierto es que la tiranía de los escalafones y las métricas impera en la vida universitaria desde que se consagró hace un par de décadas la cultura de la evaluación de la calidad, la financiación y los incentivos por méritos académicos.

    De repente, había que medirlo todo: la satisfacción de los estudiantes, la productividad de los investigadores, el prestigio de las facultades... Se consideraba la mejor manera de promover la excelencia, aunque al final ha provocado, en muchos casos, el efecto contrario.

    LAS MÉTRICAS Y EL PRINCIPIO DE INCERTIDUMBRE

    «Con los rankings está pasando algo parecido al principio de incertidumbre de Heisenberg, que habla de cómo la observación de la realidad interfiere con las partículas que pretendes observar y las modifica», plantea Manuel Febrero Bande, catedrático de Estadística e Investigación Operativa de la Universidad de Santiago de Compostela.

    «Cuando eres consciente de que estás siendo evaluado con un modelo que es una simplificación de la realidad, acabas dedicando más esfuerzos a mejorar en ese modelo que a tu labor como científico, por ejemplo», completa.

    Algo similar plantea Carlos Elías, también catedrático, aunque en este caso de Periodismo en la Universidad Carlos III de Madrid (UC3M): «La excelencia científica jamás la medirán las citas o rankings, sino la historia de la ciencia: teoremas, teorías, nuevas moléculas relevantes, leyes físicas nuevas que salgan de esa universidad o ese país... y eso sólo puede decirlo el tiempo y los historiadores de cada disciplina».

    SOBORNAR A LOS CLIENTES PARA RECIBIR CINCO ESTRELLAS

    Hace apenas unas semanas, Elías concurrió a las elecciones al Rectorado de la UC3M denunciando la inversión de prioridades que se está produciendo en los campus. «En mi programa, que pronto publicaré como libro, denunciaba cómo políticas como los grados en inglés o la segregación por notas altas se adoptan sólo para estar mejor posicionados en los rankings, olvidando la función social de una universidad pública», subraya.

    Pero lo cierto es que los campus o la ciencia no son los únicos que están gravemente enfermos de métricas, sino que es un fenómeno cada vez más generalizado en el mundo digital. Basta con hacer un repaso rápido de las decisiones que usted mismo toma en el día a día para darse cuenta de que muchas de ellas están influidas (¿intoxicadas?) por todo tipo de mediciones, escalafones o parámetros.

    ¿No suele comparar el número de estrellas de los market places antes de decidir qué producto compra? ¿No busca en Internet listas de los mejores restaurantes de la ciudad? ¿No fía al número de retuits de una persona en redes sociales la decisión de si es relevante? Todos lo hacemos. Y, sin embargo, muchas empresas de consumo sobornan a los clientes para garantizarles a sus productos las deseadas cinco estrellas; la influencia en redes está inflada a menudo por legiones de bots; y se han denunciado varios casos de restaurantes ficticios que, con muy poco, engañaron al algoritmo de webs como Tripadvisor para convertirse en los mejores de su municipio.

    «Las métricas, y más aún con el big data, que es el nuevo petróleo, dominan la sociedad e incluso se pueden manipular sentimientos, opiniones, rankings...», sostiene Irene Marroquín, profesora de Inteligencia de Negocios en la Universidad CEU-San Pablo. Y esa es la paradoja: ponerle número a todo nos hace creer que vivimos en un mundo medido y bajo control, cuando en realidad se trata de una ficción paralela. A menudo, manipulada. ¿Por qué? Por diversos motivos.

    El primero tiene que ver con ese principio de incertidumbre al que aludía Febrero Bande y que en sociología se conoce como Ley de Goodhart, Ley de Campbell o efecto cobra. Este último nombre se debe a una anécdota de la India colonial, donde se intentó reducir las poblaciones de este tipo de serpiente venenosa premiando su aniquilación. Se consiguió justo lo contrario, ya que muchos cazarrecompensas las criaban para matarlas y cobrar. Así, cuando se eliminaron los incentivos por cada cobra muerta, esos criadores liberaron a las que tenían y aumentó su población.

    ¿SE PUEDE MEDIR TODO?

    La segunda explicación es que estamos obsesionados en medir incluso aquello que no es fácil de traducir en parámetros con rigor. «Más que una hipermedición, hay una hipersimplificación de la realidad», matiza Febrero Bande. «Yo no creo que haya cuestiones imposibles de cuantificar, sino que a veces resulta muy caro y se opta por modelos ultra simples para medir de forma rápida la calidad pese a dejar muchas zonas oscuras», añade.

    Sin embargo, este es un punto en el que los académicos no se ponen de acuerdo entre sí. «Las ciencias sociales, incluida la economía, jamás serán como las naturales, porque no pueden hacer predicciones, sino profecías, que son puntos de vista con sesgos políticos», plantea Elías. «Eso no es malo en absoluto, peor es creer que es una verdad objetiva y que no lo sea», precisa.

    El tercer peligro de las métricas es que a menudo se convierten en objetivos en sí mismas más que en herramientas para calcular cómo de cerca o de lejos estás de tus verdaderos objetivos. «Eso es muy peligroso a nivel empresa y en todos los sectores, pero cuando lo haces desde los gobiernos acabas corrompiendo políticamente el sistema», argumenta Marroquín.

    La ficción ha dado buena cuenta de ello. Por ejemplo, The Wire, una de las mejores series de la historia, donde la Policía acaba ocultando cadáveres para maquillar las estadísticas sobre homicidios y no perjudicar las ambiciones del alcalde Carcetti.

    Tampoco en el mundo real faltan ejemplos. Uno de ellos es la llamada falacia de McNamara. El secretario de Defensa de EEUU definió una serie de indicadores que garantizarían la victoria. Entre ellos, infligir un determinado número de bajas enemigas, lo que animó a los soldados a contabilizar cadáveres de campesinos. La consecuencia: se alcanzaron todos los objetivos numéricos de Robert McNamara, pero se perdió la guerra.

    Basta con extrapolar este ejemplo a otros terrenos para darse cuenta de los enormes riesgos que conlleva convertir las métricas en religión. «Introducir KPIs (indicadores clave de rendimiento, por sus siglas en inglés) en la medicina puede llevar a que un médico no quiera asumir un caso muy grave porque si se le muere el paciente durante la operación empeoran sus KPIs y su valoración profesional», sugiere Marroquín. ¿Querrían que un cirujano estuviera pensando en su productividad o su tasa de éxito mientras les opera?

    Pero, pese a todos estos peligros y a la sensación de que las métricas nos construyen un mundo de mentira, los expertos consultados las consideran una herramienta insustituible para tomar decisiones. La clave, como en tantas otras cosas, es la educación. Que todos seamos conscientes al utilizarlas, de sus limitaciones, sus perversiones y sus riesgos.


    martes, 2 de mayo de 2023

    LIBRO: El juego de la evaluación. Como las métricas de publicación determinan la comunicación científica

    Publicado por Cambridge University Press
    https://www.cambridge.org/pl/academic/subjects/physics/general-and-classical-physics/evaluation-game-how-publication-metrics-shape-scholarly-communication?format=PB


    The Evaluation Game
    How Publication Metrics Shape Scholarly Communication

    AUTHOR: Emanuel Kulczycki, Adam Mickiewicz University, Poland
    DATE PUBLISHED: April 2023
    AVAILABILITY: Available
    FORMAT: Paperback
    ISBN: 9781009351195


    £ 29.99
    Paperback


    La investigación científica se comunica, organiza, financia, gobierna y evalúa a través del proceso de publicación. El resultado de este proceso es un entorno académico altamente competitivo que recompensa a los investigadores por publicar grandes volúmenes, preferiblemente en revistas de alto impacto, lo que lleva a la popularizada expresión "publicar o perecer". Las universidades y otras instituciones científicas están sometidas a una presión similar, con su producción investigadora agregada bajo constante escrutinio. Este innovador texto ofrece una detallada introducción al origen y desarrollo de las métricas académicas utilizadas para medir la productividad académica, y el efecto que tienen sobre la calidad y diversidad de la investigación científica. Con su cuidadosa atención a los resultados positivos y negativos de la evaluación de la investigación y a sus distintas expresiones en todo el mundo, El juego de la evaluación guía el camino hacia una comprensión más fundamentada de las métricas y de las diversas culturas académicas a las que dan lugar.

    - Ofrece una descripción exhaustiva de las transformaciones en la comunicación académica generadas por los sistemas de evaluación de la investigación y propone un replanteamiento fundamental de los valores que impulsan el mundo académico.

    - Presenta el primer relato histórico de los sistemas de evaluación de la investigación en Oriente, remontándose a sus raíces en la modernización de Rusia.

    - Analiza las dos trayectorias distintas de la modernización y la medición en el mundo académico, la socialista y la capitalista, lo que permite a los lectores comprender por qué los investigadores de las distintas regiones reaccionan de manera diferente ante la evaluación de la investigación.

    *****************************

    Scientific research is communicated, organized, financed, governed, and evaluated through the process of publication. The result of this process is a highly competitive academic environment that rewards researchers for high volume publication, preferably in high-impact journals, leading to the popularised expression 'publish or perish'. Universities and other scientific institutions are under similar pressure, with their aggregated research output being under constant scrutiny. This innovative text provides a detailed introduction to the origin and development of the scholarly metrics used to measure academic productivity, and the effect they have upon the quality and diversity of scientific research. With its careful attention to both the positive and negative outcomes of research evaluation and their distinct expressions around the globe, The Evaluation Game guides the way to a more grounded understanding of metrics, and the diverse academic cultures they give rise to.

    - Provides a comprehensive account of the transformations in scholarly communication generated by research evaluation systems, and proposes a fundamental rethinking of the values that drive academia

    - Presents the first historical account of research evaluation systems in the East, tracing them back to their roots in the modernization of Russia

    - Discusses the two distinct trajectories of modernisation and metricization in academia, the socialist and capitalist, allowing readers to understand why researchers in different regions react differently to research evaluation

    **********************************

    Table of Contents
    Introduction

    1. Evaluation as power
    2. Economization and metricization
    3. Untold histories of research evaluation
    4. The diversity of evaluative powers
    5. Players and the stakes
    6. Playing the evaluation game
    Conclusions
    Acknowledgements
    References
    Index.

    jueves, 20 de abril de 2023

    Sobre el "Negacionismo bibliométrico"

     Negacionismo bibliométrico

    Daniel Torres-Salinas
    https://orcid.org/0000-0001-8790-3314
    Universidad de Granada
    torressalinas@go.ugr.es

     

    En las conversaciones informales que suelo mantener con nuestros colegas,
    hace ya tiempo que vengo hablando de un nuevo negacionismo que, si bien
    ha existido siempre, ahora se ha acentuado. Nos referimos al
    negacionismo bibliométrico, una nueva corriente que podemos sumar a la
    del cambio climático, la del covid, las vacunas o las corrientes terraplanistas.
    Como es sabido, el "denialism", en su terminología anglosajona, se basa en
    la negación intencionada de un corpus de evidencias empíricas (Hansson, 2017).

    Las características del negacionismo están bien establecidas y, entre otras,
    se señala un rechazo dogmático hacia los resultados científicos, la selección
    a conveniencia de datos y, sobre todo, la formación de expectativas imposibles sobre lo que la ciencia realmente puede proporcionar (Lucena, 2022).
    En la actualidad, existen diversas opiniones que presentan algunos de estos
    rasgos ya que niegan con rotundidad la utilidad de los indicadores bibliométricos,
    desaconsejando sin ambages su uso en los procesos de evaluación científica.

    Las pruebas sobre la existencia de un negacionismo métrico, hablando
    solo del caso español, son indiscutibles y afectan a gran parte de las convocatorias.
    Pero pongamos un par de ejemplos ilustrativos. En la última convocatoria para
    la evaluación de proyectos de generación de conocimiento 2022, en
    las instrucciones que recibimos los evaluadores por correo electrónico,
    nos indicaron que "debe tenerse en cuenta en el proceso de evaluación que
    la AEI ha firmado la Declaración DORA por la que se compromete a que
    las evaluaciones se realicen de manera cualitativa, sin utilizar índices bibliométricos
     como parámetros principales para la evaluación
    ". Otro caso análogo se
    encuentra en la elaboración del Curriculum Vitae Abreviado (CVA).
    Hasta la convocatoria de 2020, se mantenía en el CVA un apartado de
    "Indicadores generales de calidad de la producción científica" donde se
    podían incluir, por ejemplo, el número de tramos de investigación y,
    por supuesto, aquellos indicadores bibliométricos (citas, índice H, etc.)
    que el investigador considerase pertinentes, siempre que se indicara
    la base de datos de origen (1). Sin embargo, esto se eliminó en el año 2021
    y se prohibieron esas menciones a indicadores y fuentes. En la zona del
    resumen del CV, nos daban la razón de esta eliminación:
    "se ha modificado el contenido de este apartado para progresar en la
    adecuación a los principios DORA
    " (2).

    Está claro que la decisión de prescindir de las métricas no ha sido
    repentina y responde a la asimilación de los enunciados de DORA recogidos
    en la Declaración de San Francisco (3). Muchas instituciones españolas,
    por cierto, suscriben la declaración para después no hacerle de caso:
    si hay que firmar se firma. Creemos que en la aplicación española de la
    doctrina dórica se ha tomado la parte por el todo. Nos referimos a que
    DORA se centra en un ataque frontal y justificado contra el Factor de Impacto
    y el uso de indicadores de revistas aplicados a evaluar trabajos y científicos.
    A pesar de esto, en la Declaración no se indica inequívocamente que
    no se deban emplear otros indicadores como el índice H, las métricas sociales
    o las métricas a nivel de artículo. Da la impresión de que la crítica al Factor de
     Impacto se ha extendido al resto de métricas, poniendo en tela de juicio
    gran parte de los indicadores y técnicas bibliométricas.
    Esto representa una interpretación exigente y maximalista de
    la ideología evaluativa de DORA que ha tenido su continuidad en el
    "Agreement on Reforming Research Assessment" promovido por COARA (4),
    al que hace unos días ANECA anunció su adscripción (5)

    Tanto COARA como DORA se basan en principios innegables para
    cualquier profesional de la bibliometría, como, por ejemplo,
    no considerar únicamente las publicaciones en revistas, evaluar
    el impacto social o promover un sistema más inclusivo. Sin embargo,
    también se sustentan en un rechazo de las métricas y en una negación
    de su utilidad, ya que el nuevo sistema apuesta decididamente y
    de forma unilateral por la revisión por pares. En este sentido, ANECA
    es clara y precisa en la nota mencionada, comprometiéndose
    a avanzar hacia modelos de evaluación cualitativos basados
    en la revisión por pares, lo que es una transcripción literal de lo que aparece
    en el Agreement: “Assessment should rely on qualitative judgement”.
    En ningún lugar del documento de COARA se mencionan explícitamente
    las palabras bibliometría, informetría o cienciometría.
    Quizás las han borrado por entender que "indicadores cuantitativos"
    es una denominación menos ofensiva y parecen plantear su uso en casos extremos,
    de manera responsable y tomando múltiples precauciones. Es preferible
    que los evaluadores trabajen a ciegas, sin datos, antes que manchar sus juicios
    con indicadores viles.

    Dos cosas me sorprenden de esto. Por un lado, debería ser molesto
    para los bibliométras no llamar a las cosas por su nombre. Sorprende demasiado
    no solo la negación, sino también la apropiación y ausencia de reconocimiento
    de los métodos de la Bibliometría Evaluativa (BE), que ya he explicado
    en otro Thinkepi (Torres-Salinas, 2022). En resumen, en BE,
    los indicadores se proponen como una herramienta de apoyo en
    los procesos de revisión por pares en lugar de como un sustituto
    de dichos procesos, tal como se señala en esta cita:
     “los indicadores informétricos son una herramienta de apoyo en los procesos de revisión por pares, en lugar de como un sustituto de dichos procesos
    (Moed, 2007). ¿No les parece similar? Es evidente que COARA
    toma demasiadas ideas de la Bibliometría/Informetría Evaluativa sin mencionarla
    en ningún momento, como si ya no fuera bienvenida, como si fuera víctima
    de una nueva cultura de cancelación métrica. Había dicho que había dos cosas
     que me sorprendían, y la segunda es la idealización del
    Peer Review por parte de COARA. Cabe preguntarse si están bien informados
    en la coalición de expertos sobre las limitaciones del Peer Review y
    si han leído la cantidad de evidencias científicas que muestran los problemas
    que conlleva la evaluación por expertos. ¿O también van a negarlos?

    Al igual que se apuntan a los límites de la Bibliometría, habría que
    señalar también los límites del Peer Review. Dejando de lado los
    posibles problemas de subjetividad, discrepancia en las evaluaciones,
    imparcialidad, etc., lo que me preocupa es si se han pensado en las
    implicaciones más prácticas que conlleva la aplicación sistemática del
    Peer Review, como, por ejemplo, el costo del sistema,
    el crecimiento de la burocracia, la problemática en la resolución d
    e arbitrariedades, la falta manifiesta de expertos en algunos temas y la ausencia,
     de momento, de soluciones evaluativas tangibles y universales a corto plazo.
    En la era del Big Data y las decisiones informadas por datos, parece
    que se promueve en nuestro sector lo contrario y, justamente,
    cuando más métodos e indicadores bibliométricos tenemos
    a nuestra disposición. Cuando más consciencia tenemos
    de atender a las singularidades y al impacto social de la investigación,
    más parece que nos agazapamos en la trinchera unilateral de los expertos.
    En definitiva, no había necesidad de negar el corpus científico de la
    Bibliometría Evaluativa. Si se hubiera pensado entre todos, seguro que
    se podría haber encontrado una forma inteligente de combinar los indicadores
    y el Peer Review.

     

    Referencias

    Hansson, S. O. (2017). Science denial as a form of pseudoscience. Studies in History and Philosophy of Science Part A63, 39-47. https://doi.org/10.1016/j.shpsa.2017.05.002

    Lucena, A. D. (2022, enero 20). Negacionismo, anticiencia y pseudociencias: ¿en qué se diferencian? The Conversation. http://theconversation.com/negacionismo-anticiencia-y-pseudociencias-en-que-se-diferencian-174831

    Moed, H. F. (2007). The future of research evaluation rests with an intelligent combination of advanced metrics and transparent peer review. Science and Public Policy34(8), 575-583. https://doi.org/10.3152/030234207X255179

    Torres-Salinas, D. (2022). 1985: Cinco lecciones inmortales de Moed para bibliómetras profesionales. Anuario ThinkEPI16(1), 3.


    Notas

    (1) https://www.aei.gob.es/convocatorias/buscador-convocatorias/proyectos-idi-2020-modalidades-retos-investigacion-2

    (2)  https://www.aei.gob.es/convocatorias/buscador-convocatorias/proyectos-generacion-conocimiento-2021/convocatoria

    (3)   https://sfdora.org/read/read-the-declaration-espanol/

    (4)   https://coara.eu/agreement/the-agreement-full-text/

    (5)  https://www.aneca.es/web/guest/-/aneca-se-adhiere-a-la-san-francisco-declaration-on-research-assessment-dora-y-a-la-coalition-for-advancing-research-assessment-coara- 


    viernes, 31 de marzo de 2023

    ESPAÑA: [preprint] FALLEN JOURNALS. Implicaciones para la ciencia española de la expulsión de revistas en Web of Science

    Repiso, Rafael, & Delgado-Vázquez, Ángel. (2023). FALLEN JOURNALS 2023. Implicaciones para la ciencia española de la expulsión de revistas en Web of Science (Version 1). Zenodo. https://doi.org/10.5281/zenodo.7787933

    fallen journals.png
    Resumen
    El día 20 de marzo de 2023 Web of Science expulsaba a un número inusual de revistas (82), donde las mega-journals tenían un papel destacado (15). Este trabajo presenta cómo afecta a la ciencia producida en España la caída de estas revistas fraudulentas, viendo su peso por universidades. Además, se profundiza en la producción de la revista International Journal of Environmental Research and Public Health -IJERPH (MDPI), revista donde más españoles han publicado en los últimos años y que también ha sido expulsada. Además, se estudian las posibles causas de expulsión de REIDOCREA, única revista española expulsada. Si las mega-journals suponen el 62% IJERPH tiene un 25,4% del total, sin embargo, representa el 78,5% de los artículos españoles. Son las universidades privadas y más pequeñas las que parecen tener más dependencia de estas revistas. Tan sólo en IJERPH se estima que los artículos españoles han tenido un coste total por encima de los 12 millones de euros en los últimos 5 años. Al final del documento se reflexiona sobre las perversiones derivadas del sistema español de evaluación, de sus protagonistas y de cómo se fomentan estos deméritos, al no ser perseguidos, sino recompensados.

    Pueden acceder y descargarse el pre-print en:

    Repiso, Rafael, & Delgado-Vázquez, Ángel. (2023). FALLEN JOURNALS 2023. Implicaciones para la ciencia española de la expulsión de revistas en Web of Science (Version 1). Zenodo. https://doi.org/10.5281/zenodo.7787933

    --
    Rafael Repiso
    Profesor de la Universidad de Málaga
    Miembro del Grupo EC
    3 de Investigación - UGR
    Miembro de EC3metrics

    ESPAÑA: profesores de la Complutense llevan más de 300 firmas al Rectorado para que corte relaciones con empresas y academias cercanas a ISRAEL

    Publicado en El País https://elpais.com/espana/madrid/2024-05-10/los-maestros-de-la-complutense-llevan-mas-de-300-firmas-al-rectorado-para-...