Mostrando entradas con la etiqueta citas en contexto. Mostrar todas las entradas
Mostrando entradas con la etiqueta citas en contexto. Mostrar todas las entradas

viernes, 13 de enero de 2023

scite: citas en contexto ¿Cómo funciona y que aporta?

Publicado en InfoToday
https://www.infotoday.com/OnlineSearcher/Articles/Metrics-Mashup/Whats-in-a-Citation-Motivation-and-Classification-of-Citing-References-154771.shtml 


¿Qué hay en una cita? Motivación y clasificación de las citas de referencias

Por Elaine M. Lasda

Volumen 46, Número 5 - Septiembre/Octubre 2022

Para hacer la pregunta "¿Qué hay en una cita?" en contexto histórico, comenzaré con el legendario Eugene Garfield. En 1955, se propuso “proponer un sistema bibliográfico para la literatura científica que pueda eliminar la citación acrítica de datos fraudulentos, incompletos u obsoletos al hacer posible que el académico consciente esté al tanto de las críticas de artículos anteriores” (“Citation Indexes for Science: A New Dimension in Documentation Through the Association of Ideas”, Science, New Series, v. 122, n.º 3159, 15 de julio de 1955, págs. 108–111).

Pero Garfield y otros pronto se dieron cuenta de que rastrear las referencias citadas de un artículo a otro podría aprovecharse para otros fines. En 1979, Garfield, al escribir una defensa del uso del recuento de citas para la evaluación de los investigadores, refuta tres de los motivos de preocupación más comunes en ese momento: autocitas, citas negativas/críticas y citas relacionadas con cuestiones metodológicas. En él, analiza los problemas con el Science Citation Index y el Social Science Citation Index y ofrece contraargumentos sobre por qué los problemas planteados no afectan significativamente la medición de la contribución de un investigador al conocimiento científico: “Sabemos que las tasas de citas dicen algo sobre la contribución realizada. por el trabajo de un individuo, al menos en términos de la utilidad y el interés que el resto de la comunidad científica encuentra en él” (“Is Citation Analysis a Legitimate Evaluation Tool?” Scientometrics, v. 1, no. 4, 1979: pp. 359 –375; garfield.library.upenn.edu/papers/scientometricsv1(4)p359y1979.pdf).

Garfield va tan lejos como para abogar por una métrica que nunca ganó mucha fuerza: el conteo de citas de por vida por artículo. Desarrollado por Geller, et al. en “Lifetime-Citation Rates to Compare Scientists' Work”, y en prensa en el momento de la misiva de Garfield (publicada posteriormente en Social Science Research. v. 7, no. 4, 1978: pp. 345–365), no se hizo popular, hasta donde sé. (Parte de esto puede tener que ver con el lapso de tiempo de 40 años requerido para evaluar completamente la obra de un investigador utilizando esta métrica. La evaluación de la investigación generalmente se basa en un cambio rápido, y el recuento temprano de citas de un nuevo investigador es a veces el indicador por el cual dicho investigador demuestra la promesa de éxito futuro. Los evaluadores de investigación, como financiadores, laboratorios y otras instituciones, no tienen 40 años para esperar una respuesta sobre el historial de influencia/impacto ostensible de un investigador.)

Aún así, Garfield estuvo de acuerdo en que, como medida de evaluación, los recuentos de citas no son "completamente definitivos", afirmando: "Definitivamente son una herramienta interpretativa que requiere juicios reflexivos y sutiles por parte de quienes los emplean". Además, en su conclusión, Garfield señala que hay mucho sobre el significado de las tasas de citación que no sabemos”.


POR QUÉ SE CITA LA INVESTIGACIÓN

Al pensar en las referencias citadas aunque sea por un momento, es lógico pensar que el ímpetu de un investigador para citar un trabajo determinado varía. Ha habido muchos artículos revisados por pares (sin mencionar una serie de artículos de opinión) que consideran posibles justificaciones para citar fuentes en artículos de investigación. Convenientemente, Donqing Lyu, et al. publicó una metasíntesis en 2021 que agrega y clasifica estas diversas motivaciones documentadas (Lyu, D., Ruan, X., Xie, J. y Cheng, Y. “The Classification of Citating Motivations: A Meta-Synthesis,” Scientometrics , v. 126, n.º 4, 2021: págs. 3243–3264, con muro de pago en doi.org/10.1007/s11192-021-03908-z). Comenzaron con 1.771 estudios, de los cuales 38 pasaron los procesos de revisión de criterios y evaluación crítica. Escuche esto: su análisis de los 38 artículos de investigación rigurosos encontró 35 expresiones de motivación para citar investigaciones anteriores. Los redujeron a 13 "temas".

Realmente, sin embargo, cuando llegaron al grano, encontraron dos motivaciones básicas. La primera serían razones “científicas”. Los temas que cuentan como científicos son probablemente lo que usted esperaría: "Antecedentes, Brecha, Base, Comparación y Aplicación". El segundo, llamado "Táctico", se define esencialmente como no científico e incluye temas que denominan "Norma subjetiva, publicidad y búsqueda de ganancias". Otra forma de decirlo: las motivaciones tácticas tienden a estar más relacionadas socialmente, mientras que las motivaciones científicas están más relacionadas retóricamente.


ENTRE EN EL APRENDIZAJE AUTOMÁTICO

En el siglo XXI, la facilidad para procesar grandes cantidades de datos de citas, el desarrollo de identificadores de objetos digitales (DOI) para extraer artículos de investigación con mayor facilidad y el auge del aprendizaje automático han proporcionado a los cienciometristas y a los proveedores de datos de citas nuevas opciones para los análisis bibliométricos tradicionales. El desarrollo de Clarivate's Category-Normalized Citation Impact (CNCI) y derivados Journal Citation Indicator (JCI) y Collaborative CNCI, por ejemplo, ha creado un componente de análisis predictivo en el que se miden los recuentos de citas reales (o recuentos medios de citas) sobre una base o recuentos de citas previstos para una determinada categoría temática.

Ya he expresado anteriormente mi preocupación por la transparencia de este tipo de cálculo (véase mi columna de septiembre/octubre de 2021 y la de mayo/junio de 2022). Al mismo tiempo, veo el valor y las oportunidades que ofrecen el aprendizaje automático y la analítica. Podemos obtener nueva información sobre todo tipo de comportamientos y patrones bibliométricos. Esta actividad ayuda a los cienciometristas y bibliometristas a obtener nuevas y, espero, interesantes perspectivas a través de nuevos métodos de análisis de citas.

Una herramienta especialmente interesante que utiliza el aprendizaje automático y la minería de textos va un paso más allá de los nuevos indicadores de Clarivate. scite (scite.ai) funciona automatizando la clasificación de las referencias citadas en cuatro categorías: de apoyo, de mención, de contraste y no determinada. Cuando conocí scite, me descargué una extensión para el navegador que muestra una ventanita con los recuentos de estas clases de citas cada vez que ves un artículo indexado por la herramienta. Al principio, si se tenía un nombre de usuario, se podía obtener un mínimo de información detallada sobre todas las citas recogidas por scite, pero ahora sólo se pueden ver algunos de los fragmentos en los que se citó el trabajo. Los aspectos más importantes de la herramienta se encuentran tras un muro de pago.

Sin embargo, los profesores y estudiantes de mi institución pueden obtener scite con descuento. ¿Y qué? Pagué una cantidad simbólica por un año de suscripción para ver qué hacía scite y quedé impresionado. Me puse en contacto con scite para obtener más información y hacer algunas preguntas sobre la herramienta. Josh Nicholson, director general y cofundador de scite (linkedin.com/in/joshua-nicholson), me indicó, en primer lugar, que están trabajando activamente con instituciones para que scite esté disponible sin tener que recurrir a la suscripción individual.

Nicholson es biólogo celular. La génesis de scite surgió de una preocupación que él y sus socios tenían sobre los retos en los entornos de investigación, en particular la crisis de reproducibilidad y la confirmación de la validez de los estudios. Vieron la oportunidad de abordar estas cuestiones de un modo diferente: mediante el aprendizaje profundo y la minería de textos.

Para desarrollar scite, el equipo se dispuso a clasificar manualmente las referencias citadas en un conjunto de publicaciones. A continuación crearon un algoritmo para intentar reproducir la clasificación manual. La iteración actual aún cuenta con un conjunto de pruebas en el que se aplican ajustes al algoritmo. Desde su desarrollo, scite ha aprovechado más de 24 acuerdos con editores para ir detrás de los muros de pago y extraer los fragmentos y realizar el análisis del texto. En marzo de 2022, scite afirma tener más de mil millones de "citas inteligentes" en su conjunto de datos (scite.ai/blog/the-next-generation-of-citations-arrives-as-scite-crosses-one-billion-smart-citations). scite es una empresa pequeña, pero aspira a lo grande, contrastando activamente su enfoque con el de proveedores de bases de datos de citas bien financiados como Clarivate, Digital Science y Elsevier.

La clasificación automatizada de citas textuales no es algo nuevo. Conocí esta práctica en 2012, cuando David Milwad, de la empresa británica Linguamatics, habló en la conferencia anual de la SLA. Linguamatics realizó un análisis de procesamiento del lenguaje natural (PLN) de tuits y predijo correctamente la elección del primer ministro británico David Cameron en 2010 (linguamatics.com/blog/trend-analysis-%E2%80%93-can-prediction-be-made). Esto me llevó a preguntarme por qué alguien no había hecho antes este tipo de análisis con referencias citadas a gran escala. 

Nicholson explicó que los trabajos de investigación tienen una estructura de frases y una sintaxis mucho más complicadas que las fuentes populares, como las noticias o las redes sociales. Puede que estés pensando: "Duh"; sin embargo, ten en cuenta que los algoritmos de PNL deben ser más complicados para generar resultados precisos. La "segmentación de frases" es la clave... asegurarse de que la herramienta "lee" la parte correcta de una frase para clasificar correctamente la cita. El artículo de Lyu et al. refuerza esta afirmación. Afirman que, aunque su esquema puede utilizarse para automatizar la clasificación de las referencias citadas, las motivaciones tácticas "no se identifican fácilmente mediante el análisis sintáctico del texto".

¿En qué medida clasifica scite las referencias que citan un artículo determinado? Para ser sincero, me costó encontrar un artículo con un número significativo de referencias de citación "contrastadas". Me decidí por el trabajo seminal y algo controvertido de Loftus y Pickrell: "The Formation of False Memories" (Psychiatric Annals, v. 25, nº 12, 1995: pp. 720-725). scite extrajo 542 citas de sus datos obtenidos mediante acuerdos con editoriales. De las 508 que mencionan el artículo de forma neutral, 15 lo apoyan, cuatro lo contrastan y 15 son inclasificables.

He examinado algunos fragmentos de citas inteligentes en cada una de estas categorías. Muchas de las citas neutrales se incluyen en artículos que en realidad se basan en las conclusiones del artículo o adaptan sus métodos. Las citas categorizadas como de apoyo tendían a ser las más precisas, y las cuatro referencias contrastadas eran... vagas en el mejor de los casos; se acercaban mucho en sentimiento a las de la categoría "mención" neutral. Las 15 referencias no clasificables estaban en idiomas distintos del inglés.  

Hay una carga de tamaño imperial de otras características geniales en scite, pero las prácticas corporativas definitivamente soportan un mínimo de escrutinio. Los acuerdos de publicación y los conjuntos de datos de scite son de propiedad exclusiva, lo que significa que no podemos saber qué contenido está y no está incluido en los resultados. Los bibliotecarios y los profesionales de la información se han quejado durante mucho tiempo de la falta de listas de publicaciones utilizadas por los índices de citas. En algunos casos, como con Web of Science, las listas que antes no eran públicas ahora están disponibles). Parte del código de scite, pero no todo, está en GitHub (github.com/scitedotai).

Nicholson explica que su empresa necesita capital para seguir trabajando y mejorando, ya que tiene algunos competidores muy bien financiados. Por ahora, lo que quiero decir es que scite arroja luz sobre los tipos de referencias que se citan y que, al observar los fragmentos, quizá haya algunas pistas sobre la motivación de los investigadores que citan para incluir la referencia. Se trata de un objetivo muy diferente al de la evaluación de los investigadores, tarea para la que la transparencia es primordial.


CONTEXTUALIZAR LAS REFERENCIAS CITADAS

scite no es perfecto, pero es un buen comienzo para contextualizar las referencias citadas. Volviendo al artículo de Garfield de 1955, no estoy seguro de que seamos realmente capaces de "eliminar la citación acrítica de datos fraudulentos, incompletos u obsoletos haciendo posible que el investigador concienzudo conozca las críticas de trabajos anteriores". Para empezar, si lo hiciéramos, el sitio web Retraction Watch (retractionwatch.com) no existiría. Además, no creo que me esté pasando de la raya al afirmar que es probable que los investigadores sean cautos a la hora de no pisar los talones a sus colegas, al menos cuando se trata de escribir algo que será sometido a una revisión por pares. 

Nicholson me indicó un mercado imprevisto para scite: los estudiantes. Con scite, los estudiantes pueden investigar mejor sus propios ensayos y trabajos viendo cómo otros han citado un artículo asignado o uno que han encontrado en su propia búsqueda. En mis tiempos de bibliotecaria, a este tipo de búsqueda lo llamábamos "cultivo de perlas": tomábamos un artículo muy interesante y obteníamos otros relacionados con él identificando y citando referencias. scite facilita aún más el cultivo de perlas. Los estudiantes no tienen que rebuscar en listas de referencias o índices de citas y luego extraer los artículos. En su lugar, pueden obtener fragmentos a través de scite, acelerando así el proceso de filtrado. (Es de esperar que, después de filtrar, el estudiante extraiga los artículos pertinentes y no se base únicamente en un fragmento).

Como profesionales de la información, podemos utilizar nuestra experiencia para aprender, probar y comprender los matices de herramientas como scite e informar a nuestros usuarios de sus limitaciones. A veces, podemos hacer un seguimiento de los fragmentos producidos en una herramienta como scite y determinar perspectivas adicionales para nuestros clientes/usuarios. Por supuesto, podemos asesorar sobre cómo utilizar los datos de citas en general, y cuándo son y cuándo no son apropiados para la evaluación de la investigación. Nuestros conocimientos básicos sobre la información se ponen a prueba cuando satisfacemos las necesidades de los usuarios en relación con los indicadores de impacto, la contextualización de las referencias citadas y la explicación de los matices de las nuevas herramientas y recursos.

En mi experiencia, nuestra base de conocimientos en este ámbito demuestra el valor verdaderamente significativo de los bibliotecarios y profesionales de la información en todo tipo de entornos en los que se puede encontrar investigación y desarrollo. Mantenerse al día sobre las herramientas de análisis de citas es vital para preservar y aumentar este valor.

Elaine Lasda es coordinadora de comunicación académica y bibliotecaria asociada para el impacto de la investigación y el bienestar social, Universidad de Albany, SUNY.

********************************************

What’s in a Citation? Motivation and Classification of Citing References

By Elaine M. Lasda

Volume 46, Number 5 - September/October 2022


To put the question “What’s in a citation?” in historical context, I’ll start with the legendary Eugene Garfield. In 1955, he set out to “propose a bibliographic system for science literature that can eliminate the uncritical citation of fraudulent, incomplete, or obsolete data by making it possible for the conscientious scholar to be aware of criticisms of earlier papers” (“Citation Indexes for Science: A New Dimension in Documentation Through the Association of Ideas,” Science, New Series, v. 122, no. 3159, Jul. 15, 1955: pp. 108–111).

But Garfield and others soon realized that tracing cited references from article to article could be leveraged for other purposes. In 1979, Garfield, in writing a defense of using citation counts for the evaluation of researchers, refutes three of the commonly held reasons for concern at that time—self-citations, negative/critical citations, and cites related to methodological issues. In it, he discusses problems with the Science Citation Index and Social Science Citation Index and gives counterarguments about why the issues raised do not significantly affect the measurement of a researcher’s contribution to scientific knowledge: “We know that citation rates say something about the contribution made by an individual’s work, at least in terms of the utility and interest the rest of the scientific community finds in it” (“Is Citation Analysis a Legitimate Evaluation Tool?” Scientometrics, v. 1, no. 4, 1979: pp. 359–375; garfield.library.upenn.edu/papers/scientometricsv1(4)p359y1979.pdf). 

Garfield goes so far as to advocate for a metric that never gained much traction: the lifetime-citation count per paper. Developed by Geller, et al. in “Lifetime-Citation Rates to Compare Scientists’ Work,” and in press at the time of Garfield’s missive (published subsequently in Social Science Research. v. 7, no. 4, 1978: pp. 345–365), it has not, to my knowledge, become popular. (Part of this may have to do with the 40-year time span required to fully assess a researcher’s oeuvre using this metric. Research evaluation usually relies on a quick turnaround, and a new researcher’s early citation count is sometimes the indicator by which said researcher demonstrates the promise of future success. Research evaluators such as funders, labs, and other institutions do not have 40 years to wait for an answer about a researcher’s record of ostensible influence/impact.)

Still, Garfield agreed that as an evaluative measure, citation counts are not “completely definitive,” stating: “They very definitely are an interpretive tool that calls for thoughtful and subtle judgements on the part of those who employ them.” Also, in his conclusion Garfield notes, [T]here is much about the meaning of citation rates that we do not know.” 

WHY RESEARCH IS CITED

Thinking about cited references for even a moment, it stands to reason that a researcher’s impetus to cite a given work varies. There have been many peer-reviewed articles (not to mention a swath of opinion pieces) that consider possible justifications for citing sources in research articles. Conveniently, Donqing Lyu, et al. published a meta-synthesis in 2021 that aggregates and classifies these various documented motivations (Lyu, D., Ruan, X., Xie, J., & Cheng, Y. “The Classification of Citing Motivations: A Meta-Synthesis,” Scientometrics, v. 126, no. 4, 2021: pp. 3243–3264; paywalled at doi.org/10.1007/s11192-021-03908-z). They started with 1,771 studies, of which 38 passed the criteria review and critical appraisal processes. Get this: Their analysis on the 38 rigorous research articles found 35 expressions of motivation for citing previous research. They boiled these down to 13 “themes.” 

Really, though, when they got down to brass tacks, they found two basic motivations. The first would be “Scientific” reasons. The themes that count as scientific are likely what you would expect: “Background, Gap, Basis, Comparison, and Application.” The second, called “Tactical,” is defined essentially as non-scientific and includes themes they dub “Subjective Norm, Advertising, and Profit-seeking.” Another way of putting it: Tactical motivations tend to be more socially related, whereas Scientific motivations are more rhetorically related. 

ENTER MACHINE LEARNING

In the 21st century, the ease of crunching large amounts of citation data, the development of Digital Object Identifiers (DOIs) to pull research articles more readily, and the rise of machine learning have afforded scientometricians and citation data providers’ new options for traditional bibliometric analyses. The development of Clarivate’s Category-Normalized Citation Impact (CNCI) and derivatives Journal Citation Indicator (JCI) and Collaborative CNCI, for example, has created a component of predictive analytics in that they measure actual citation counts (or mean citation counts) over a baseline or predicted citation counts for a given subject category.

I have expressed concerns about the transparency of this type of calculation previously (see my Sept./Oct. 2021 column and the one from May/June 2022). At the same time, I see the value and the opportunities machine learning and analytics offer. We can glean new information about all kinds of bibliometric behavior and patterns. Such activity helps scientometricians and bibliometricians derive new and hopefully interesting insights through new methods of citation analysis.

One particularly interesting tool using machine learning and text mining goes a step further from Clarivate’s new indicators. scite (scite.ai) works by automating the classification of cited references into four categories: supporting, mentioning, contrasting, and not determined. When I first became aware of scite, I downloaded a browser extension that pops up a little window with the counts for these classes of citations every time you view a paper that is indexed by the tool. Originally, if you had a login, you could get a modicum of detailed information about all of the citations picked up by scite, but now you can only see a few of the snippets where the work was cited. The meaty aspects of the tool are behind a paywall. 

However, faculty and students at my institution can obtain scite at a discount. So what the heck? I ponied up a nominal payment for a year’s subscription so I could see what scite is up to, and I was impressed. I reached out to scite to get some background and ask some questions about the tool. Josh Nicholson, CEO and co-founder of scite (linkedin.com/in/joshua-nicholson), indicated to me, first and foremost, that they are actively working with institutions to make scite available without having to go the individual subscription route.

Nicholson’s background is as a cellular biologist. The genesis of scite stemmed from a concern that he and his partners had about challenges in research settings, particularly the reproducibility crisis and confirming the validity of studies. They saw an opportunity to look at these issues in a different way—through deep learning and text mining. 

To develop scite, the team set about to manually classify cited references in a set of publications. They then created an algorithm to attempt to replicate the manual classification. The current iteration still has a test set against which tweaks to the algorithm are applied. Since development, scite has leveraged more than 24 publisher agreements to go behind paywalls to pull the snippets and do the text analysis. As of March 2022, scite claims to have more than a billion “smart citations” in its dataset (scite.ai/blog/the-next-generation-of-citations-arrives-as-scite-crosses-one-billion-smart-citations). scite is a small operation but is aiming big, actively contrasting its approach to that of the likes of well-funded citation database vendors such as Clarivate, Digital Science, and Elsevier.

Automated classification of text statements is not at a new thing. I first became aware of the practice in 2012, when David Milwad from the U.K.-based firm Linguamatics spoke at the SLA annual conference. Linguamatics performed a natural language processing (NLP) analysis of tweets and correctly predicted the election of U.K. Prime Minister David Cameron in 2010 (linguamatics.com/blog/trend-analysis-%E2%80%93-can-prediction-be-made). This led me to wonder why someone hadn’t done this type of analysis with cited references on a large scale sooner. 

Nicholson explained that research papers have a much more complicated sentence structure and syntax than popular sources such as news or social media. You may be thinking, “Duh”; however, consider how NLP algorithms must then be more complicated to generate accurate results. “Sentence segmentation” is the key issue … making sure the tool “reads” the right part of a sentence to properly classify the citation. Lyu, et al.’s article reinforces this statement. They posit that while their schema can be used to automate classification of citing references, the tactical motivations are “not easily identified through text parsing.”

How well does scite classify references that cite a given paper? To be honest, I struggled to find an article with a significant number of “contrasting” citing references. I settled on Loftus and Pickrell’s seminal and somewhat controversial work: “The Formation of False Memories” (Psychiatric Annals, v. 25, no. 12, 1995: pp. 720–725). scite pulled 542 citation statements from its data garnered via publisher agreements. Of those 508 that mention the article neutrally, 15 support the paper, four contrast, and 15 were unclassifiable.

I looked at a few smart citation snippets in each of these categories. Many of the neutral citations are included in papers that actually build on the paper’s findings or adapt its methods. Citations categorized as supportive tended to be the most accurately categorized, and the four contrasting citing references were … wishy-washy at best; they were very close in sentiment to those in the neutral “mention” category. All 15 of the unclassifiable citing references were in languages other than English.  

There is an imperial-sized load of other cool features in scite, yet corporate practices definitely bear a modicum of scrutiny. scite’s publisher agreements and datasets are proprietary, meaning we can’t tell what content is, and is not, included in the results. Librarians and info pros have long howled about the lack of publication lists used by citation indexes. In some cases, such as with Web of Science, formerly non-public lists are now available.) Some, but not all, of scite’s code is on GitHub (github.com/scitedotai).

Nicholson explains that his company needs capital to keep working and improving, since he has some extremely well-funded competitors. For now, my point is that scite sheds an insight on the types of citing references, and in looking at the snippets, there are perhaps some hints at the citing researchers’ motivation for including the reference. This is a very different purpose than the evaluation of researchers, a task for which transparency is paramount.

CONTEXTUALIZING CITED REFERENCES

scite may not be perfect, but it is a start at contextualizing cited references. Circling back to the 1955 article from Garfield, I’m not sure we are truly able to “eliminate the uncritical citation of fraudulent, incomplete, or obsolete data by making it possible for the conscientious scholar to be aware of criticisms of earlier papers.” For one thing, if we were, the Retraction Watch website (retractionwatch.com) would not exist. Also, I don’t think I am going too far out on a limb when I allege researchers are likely to be cautious about not stepping on their colleagues’ toes, at least when it comes to writing something that will undergo peer review. 

Nicholson indicated to me an unforeseen market for scite: students. Using scite, students are better able to research their own essays and papers by seeing how others have cited an assigned paper or one they’ve found from their own searching. Back in my library school days, we called this type of search “pearl growing,” taking one very on-point article and obtaining others related to it through identifying cited and citing references. scite makes pearl growing even easier. Students don’t have to pore through reference lists or citation indexes and then pull the papers. Instead, they can get snippets through scite, thereby speeding up the filtering process. (One hopes that after filtering, the student pulls the relevant papers and does not just rely on a snippet.)

As info pros, we can use our expertise to learn, test, and understand the nuances of tools like scite and then inform our users of the tools’ limitations. Sometimes, we can follow up on the snippets produced in a tool like scite and determine additional insights for our customers/users. Of course, we can advise on how to use citation data in general, and when it is—and is not—appropriate for research evaluation. Our top-notch information literacy skills are certainly flexed when we meet user needs with regard to impact indicators, contextualizing citing references and explaining the nuances of new tools and resources.

In my experience, our knowledgebase in this area demonstrates the truly meaningful value of librarians and info pros in all kinds of settings where research and development can be found. Staying current on citation analytics tools is vital to preserving and increasing this value.

Elaine Lasda is coordinator for scholarly communication and associate librarian for research impact and social welfare, University at Albany, SUNY.

viernes, 28 de octubre de 2022

Hacia las métricas de contexto: clasificación de citas en Web of Science / Enrique Orduña-Malea

Hacia las métricas de contexto: clasificación de citas en Web of Science

 

Enrique Orduña-Malea
https://orcid.org/0000-0002-1989-8477
Universitat Politècnica de València
Departmento de Comunicación Audiovisual, Documentación e Historia del Arte
enorma@upv.es

 

Los conteos de citas bibliográficas generan a su alrededor un volumen de negocio significativo debido a la compra/venta de datos bibliométricos, generados masivamente dentro de la sociedad plataformizada en la que vivimos actualmente (Ma, en prensa). Una compra/venta potenciada y amplificada por el uso de estos datos en distintos procesos de evaluación (de personas, proyectos, revistas o universidades).


A pesar del negocio construido a través de las citas bibliográficas, la teoría de la citación constituye todavía un mecanismo de explicación relativamente débil a la hora de conocer y comprender los mecanismos que regulan los procesos de construcción, comunicación, consumo y evaluación de la Ciencia. Qué es una cita, qué motivos están detrás de la generación de esa cita y, por tanto, qué significa un “conteo de citas” son preguntas que han generado un amplio debate a lo largo de las últimas décadas. Un debate simplificado por las plataformas que elaboran los indicadores de citas y desfigurado por las entidades responsables de la evaluación de la actividad científica, que han llevado juntos a cosificar la cita hasta convertirla en una simple moneda canjeable por un puesto de trabajo o por una reputación. Hemos de recordar que las acreditaciones y sexenios en España se basan fundamentalmente en la publicación de artículos en revistas de alto impacto (léase Factor de Impacto o indicador similar). Es decir, en revistas que han publicado artículos que han recibido muchas citas.

 

Grandes personalidades de nuestra disciplina y disciplinas afines han tratado de bucear en la teoría de la citación, entre los que destacan–sin ánimo de ser exhaustivo–Merton (1983), Cronin (1981), Latour (1987), Garfield (1988), Leydesdorff (1988), van Raan (1998), Cozzens (1989), Wouters (1999), Small (2004), Moed (2005) o Bornmann y Daniel (2008). Las distintas teorías giran desde la visión positivista y normativa (la publicación es una unidad de nuevo conocimiento y la cita un reconocimiento) hacia la visión constructivista (las citas son generadas por motivaciones diversas, por lo que contarlas supone un constructo artificial sin sentido). A mitad de camino se encuentran teorías como el constructivismo social, que considera a la cita como un acto de persuasión (Gilbert, 1977; Latour, 1987) o, más recientemente, la teoría de citación de sistemas sociales (Tahamtan y Bornmann, 2022), basada en la teoría de sistemas sociales de Luhmann (2012). La literatura ha producido incluso metateorías (Cronin, 2006).

 

Una derivada del estudio del proceso de citación (Cronin, 1984) ha sido la clasificación de las citas según la supuesta motivación que ha guiado a los autores a crearlas (Small, 1982), incluyendo el rol, efectos y significado de las autocitas (Glänzel et al., 2006). La clasificación de citas ha dado lugar ocasionalmente a nuevos indicadores. La clasificación puede centrarse en el análisis de los documentos citantes (por ejemplo, velocidad de la cita, aceleración o procedencia de la cita) o en los documentos citados (por ejemplo, intensidad, localización o contexto de la cita).

 

Los recientes avances en machine learning (en ocasiones llamado Inteligencia Artificial de forma un tanto exagerada) han permitido ahondar en la clasificación automática de las citas. Algunas bases de datos como Semantic Scholar ya proporcionan datos de citas clasificadas, llamadas en este caso citation intent (background citation, method citation, results citation). Scite permite por su parte filtrar las citas recibidas según el tipo (supporting, mentioning, contrasting) y sección (introduction, methods, results, discussion).

 

Clarivate Analytics ha estado igualmente trabajando en la clasificación de las citas desde abril de 2021 como parte de la nueva funcionalidad lanzada de referencias citadas enriquecidas (enriched cited references). En febrero de 2022 se presentó información básica de este proyecto (Clarivate Analytics, 2022a) y en mayo de 2022 se publicó la integración del nuevo servicio en los resultados de búsqueda de Web of Science (Clarivate Analytics, 2022b).

 

La cita es clasificada según cada instancia (mención) en la que aparece, evaluando para ello las palabras exactas utilizadas por los autores en la frase correspondiente, así como las frases anteriores y posteriores. Es decir, se analiza el contexto en el que se ha producido la cita con el fin de conocer la supuesta intención subyacente. Por ese motivo, una cita mencionada tres veces distintas a lo largo de un trabajo (por ejemplo, en tres secciones diferentes) podría estar clasificada de forma diferente según cada mención.

 

Las citas en WoS se clasifican actualmente bajo las siguientes categorías (Clarivate Analytics, 2022b):

  • Background. La cita se debe a una investigación previamente publicada, y que orienta el documento citante dentro de un área académica concreta.
  • Basis. La cita pretende informar de conjuntos de datos, métodos, conceptos e ideas en los que los autores del documento citante se basan.
  • Support. El documento citante informa de la obtención de resultados similares. Igualmente, puede referirse a similitudes en la metodología o, en algunos casos, a la reproducción de resultados.
  • Differ. El documento citante informa mediante una cita que ha obtenido resultados diferentes a los obtenidos en el documento citado. Esto también puede referirse a diferencias en la metodología o diferencias en los tamaños de muestra que afecten los resultados.
  • Discuss. El documento citante cita otro estudio porque está ofreciendo una discusión más detallada sobre el tema tratado.

Los usuarios pueden actualmente ordenar los resultados de una búsqueda según el número total de citas obtenidas por cada registro o, alternativamente, según el número de citas por categoría (Background, Basis, Support, Differ, Discuss).

 

Para cada registro se ofrece la cantidad de citas recibidas por categoría de cita así como el número de documentos citantes que han sido considerados para contextualizar las citas recibidas (denominados citing items en WoS). Adicionalmente, se puede navegar por todos los documentos citantes y visualizar el contexto exacto en el que se ha producido la cita (in-text mention), de una forma similar a como ya lo ofrece ResearchGate. De ese modo, WoS indica para cada citing item la sección en la que aparece cada instancia de la cita y la categoría asignada (por ejemplo, section: Introduction; Classification: Background).

 

Según datos oficiales de Clarivate Analytics (2022b), las citas clasificadas están disponibles actualmente para los artículos de un 75% de las revistas indexadas en Web of Science Core Collection (WoScc). Clarivate estima seguir aumentando la cobertura de forma paulatina hasta lograr cubrir todas las publicaciones en WoScc. Por otro lado, la cantidad de registros con referencias enriquecidas es igualmente muy pequeño todavía (3.3% de todos los registros en Science Citation Index y 3.1% de todos los registros en Social Science Citation Index).

 

Con el fin de conocer la precisión y exhaustividad del nuevo servicio de clasificación de citas, así como discutir su idoneidad, necesidad y las posibles consecuencias de su utilización, se han llevado a cabo dos casos de estudio: una revista (Profesional de la información) y un autor (Loet Leydesdorff).

 

Los resultados de este breve análisis (en apéndices A y B) muestran que la cobertura de citing items es todavía muy baja (menos del 6% en ambos casos de estudio), con un claro sesgo a los documentos que reciben muchas citas de publicaciones recientes. Por ello, el conteo de citas clasificadas de WoScc no puede ser todavía utilizado con fines métricos ni evaluativos. Clarivate ha anunciado que la cobertura irá creciendo, por lo que se estima que los datos irán modificándose durante los próximos meses, siendo muy inestables actualmente.

 

Con todo, y dada la importancia de esta base de datos tanto para la realización de estudios métricos como para procesos de evaluación, este movimiento de Clarivate se estima estratégico y relevante. Habrá que observar detenidamente los movimientos de sus competidores (Scopus, Dimensions, Google Scholar), quienes podrían adoptar soluciones similares.

 

Este movimiento hacia las citas de contexto abre asimismo una serie de interrogantes:

  •  Precisión. Más allá de la mayor o menor cobertura, se abre un interrogante acerca de la precisión con la que las citas son asignadas a una categoría concreta. Sin duda, los algoritmos de aprendizaje irán “aprendiendo” y clasificando mejor, pero siempre existirá un porcentaje de inconsistencias en la clasificación, que deberá ser calibrado.
  • Comprensión. No queda claro si con las definiciones aportadas los usuarios, aparte de las máquinas, podrán discernir correctamente las diferencias o matices entre categorías. Por ejemplo, Background y Basis pueden ser categorías difíciles de diferenciar en la práctica. Differ y Discuss podrían parecer citas negativas o críticas, pero no lo son necesariamente. Por cierto, el tono de la cita (positivo, negativo, neutro) no se cubre explícitamente en ninguna de las categorías existentes.
  • Simplificación. El sistema asume que una instancia de cita sólo puede ser clasificada en una categoría, aunque en ocasiones esto puede ser una simplificación de la realidad. Posiblemente el uso de facetas podría ayudar a caracterizar mejor la cita clasificada.
  • Representatividad. Aparte de la mayor o menor precisión en las tareas de clasificación de los algoritmos, otra duda es la relativa al propio sistema clasificatorio y su representatividad de todas las motivaciones que puedan existir, ¿por qué esas categorías de citas y no otras? En su ensayo sobre el proceso de la citación, Cronin (1984) ya recopilaba hace más de 35 años un gran número de clasificaciones de motivaciones de citas, con mayor o menor grado de solape entre ellas.
  • Estabilidad. De hecho, Clarivate ya modificó las categorías usadas en sus primeras pruebas (la categoría Compare se dividió en Support y Differ), y nada impide que pueden volver a cambiar en el futuro.
  • Comparabilidad. Las categorías no coinciden además entre las distintas bases de datos con información contextual, lo que dificulta la comparación de esta funcionalidad a través de bases de datos, tal y como ya ha comentado recientemente el conocido bibliotecario y experto Aaron Tay en un hilo en Twitter.[1]
  • Idioma. El lenguaje utilizado por los investigadores puede tener una incidencia significativa a la hora de analizar el contexto de la citación (Yutong y Bertin, 2022). Los contextos de citas en publicaciones escritas en inglés podrían tener un tratamiento más preciso que en otros idiomas. Esta circunstancia podría perjudicar a ciertos agregados (autores, revistas) que publiquen principalmente en idiomas diferentes al inglés, aunque sean minoritarios en el universo de WoScc.
  • Agregación. No es lo mismo analizar un documento particular que analizar agregaciones de documentos. Los casos de estudio realizados en esta nota (revista y autor) suponen agregaciones en las que puede resultar difícil comprender los resultados obtenidos, pero a la vez pueden ser útiles a la hora de establecer un perfil de impacto y establecer comparaciones a distintos niveles.
  • Usos evaluativos. Una vez la cobertura de citing items se expanda por toda la WoScc, es posible que se comience a usar estos parámetros con efectos evaluativos y comiencen a plantearse otras cuestiones, tales como ¿es mejor una cita de Support o Discuss que una cita de Background?, ¿una cita de Differ es positiva? Es decir, ¿se considerarán citas de primera y de segunda categoría?
  • Efectos en la comunidad. El uso de las citas clasificadas podría traer distintos efectos en los autores, que podrían modificar su modo de redacción para que la cita sea considerada de una forma o de otra según el algoritmo (especialmente si algunas clasificaciones son mejor valoradas). Del mismo modo, surgen dudas con relación al efecto de la autocitación en los conteos de citas contextuales.
  • Extrapolación. Las motivaciones detrás de una cita constituyen un caso particular de las motivaciones relacionadas con menciones (textuales o no) a trabajos y autores. Esta línea de trabajo podría por tanto influir igualmente en estudios relacionados con las motivaciones y significados de una invocación en la Web (Cronin et al., 1998), que han resultado hasta la fecha insatisfactorios a la hora de plantear una teoría del análisis de enlaces (Thelwall, 2006).

La evolución de la tecnología y de las bases de datos nos trae un futuro a medio plazo lleno de indicadores centrados en conectar el acto de la citación/mención al comportamiento de las personas. De hecho las métricas alternativas ya supusieron ese salto hacia el comportamiento (sharing, liking, downloading, etc.), solo que ahora esta conexión mención-comportamiento se lleva a las citas formales que aparecen en trabajos indexados en bases de datos selectivas, usadas en procesos evaluativos.

 

Una mayor variedad de métricas traerá diversidad y eliminará el carácter determinante de otras métricas, enriqueciendo la observación y el análisis, permitiendo además averiguar aspectos hasta ahora poco estudiados o comprendidos dentro del proceso de creación científica. No obstante, esta variedad traerá por otro lado efectos en el comportamiento de los autores para adaptarse a las nuevas formas de medición, especialmente si estos indicadores comienzan a ser utilizados con fines evaluativos. Además, una mayor cantidad de métricas podría dificultar o ralentizar ciertos procesos y análisis, quizá sin añadir nueva información de forma significativa.

 

Todo este movimiento se enmarca en un momento crítico de posicionamiento ante las métricas de impacto científico, no sólo por parte de la comunidad científica sino de las organizaciones de investigación y de las Administraciones públicas. Un momento que se está caracterizando por el fortalecimiento de posiciones extremas: a favor de la diversidad máxima y uso masivo de indicadores por un lado; en contra del uso de cualquier métrica, por otro lado.

 

Este proceso parece coincidir en el tiempo con los avances tecnológicos en machine learning académico, que podrían producir una desintermediación de los humanos no sólo en el proceso de clasificar y evaluar las citas (lo que ya es una realidad) sino en todo el proceso evaluativo, como muestra el proyecto piloto que se está llevando a cabo en el Reino Unido en el que se pretende testear la posibilidad de usar algoritmos para evaluar la calidad de la investigación de cara al próximo ejercicio de evaluación nacional (Research Excellence Framework), que será llevado a cabo en 2027/2028 Singh Chawla, 2022). El papel de asistencia o sustitución de estas herramientas será un tema de amplio debate durante los próximos años.

 

Mientras la tecnología nos avisa de la llegada de una amplia batería de indicadores de contexto y comportamiento de nueva generación, la comunidad sigue sin consensuar una teoría de la citación (si es que existe) y sin comprender plenamente qué significa el conteo de citas (o menciones de cualquier tipo). Quizá sean las propias máquinas quienes den respuesta a estas preguntas. Mientras tanto, parece que los humanos nos hemos conformado con otorgar a los conteos de citas un valor exclusivamente comercial, basado en cubrir una necesidad personal creada artificialmente (principalmente, lograr un puesto de trabajo). Este camino (el del negocio) parece estar avanzando mucho más rápido que el científico (entender qué es la citación científica).

 

Agradecimientos

Mis agradecimientos a Isidro Aguillo y Cristóbal Urbano por sus comentarios y sugerencias a versiones preliminares de este texto.


Referencias

Bornmann, Lutz; Daniel, Hans-Dieter (2008). “What do citation counts measure? A review of studies on citing behavior”. Journal of documentation, v. 64, n. 1, pp. 45-80.

https://doi.org/10.1108/00220410810844150

 

Clarivate Analytics (2022a). New WoS February 18 Release Notes. 18 de febrero, https://clarivate.com/webofsciencegroup/release-notes/wos/new-wos-february-18-release-notes/

 

Clarivate Analytics (2022b). New WOS May 12 Release Notes. 12 de mayo. https://clarivate.com/webofsciencegroup/release-notes/wos/new-wos-may-12-release-notes

 

Cozzens, Susan E. (1989). “What do citations count? The rhetorical-first model”. Scientometrics, v. 15, n. 5-6, pp. 437-447.

https://doi.org/10.1007/BF02017064

 

Cronin, Blaise (1981). “The need for a theory of citing”. Journal of documentation, v. 37, n. 1, pp. 16-24.

https://doi.org/10.1108/eb026703

 

Cronin, Blaise (1984). The Citation Process: the role and significance of citations in scientific communication, London: Taylor Graham. ISBN: 978 0 947568 01 8

 

Cronin, Blaise (2006). “Metatheorizing citation”. Scientometrics, v. 43, n. 1, pp. 45-55. https://doi.org/10.1007/bf02458393

 

Cronin, Blaise; Snyder, Herbert W.; Rosenbaum, Howard; Martinson, Anna; Callahan, Ewa (1998). “Invoked on the Web”. Journal of the American society for information science, v. 49, n. 14, pp. 1319-1328.

https://doi.org/10.1002/(SICI)1097-4571(1998)49:14%3C1319::AID-ASI9%3E3.0.CO;2-W

 

Garfield, Eugene (1998). “Random thoughts on citationology: Its theory and practice”. Scientometrics, v. 43, n. 1, pp. 69-76.

https://doi.org/10.1007/BF02458396

 

Gilbert, G. Nigel (1977). “Referencing as persuasión”. Social studies of science, v. 7, pp. 113-122.

https://doi.org/10.1177/030631277700700112

 

Glänzel, Wolfgang; Debackere, Koenraad; Thijs, Bart; Schubert, András (2006). “A concise review on the role of author self-citations in information science, bibliometrics and science policy”. Scientometrics, v. 67 n. 2, pp. 263-277.

https://doi.org/10.1007/s11192-006-0098-9

 

Latour, Bruno (1987). Science in action: How to follow scientists and engineers through society. Cambridge, MA, USA: Harvard University Press. ISBN: ISBN: 978 0 674792913

 

Leydesdorff, Loet (1998). “Theories of citation?”. Scientometrics, v. 43, n. 1, pp. 5-25.

https://doi.org/10.1007/bf02458391

 

Luhmann, Niklas (2012). Theory of society (vol. 1). Stanford, CA, USA: Stanford University Press. ISBN: 978 0 804739504

 

Ma, Lai (en prensa).” Information, platformized”. Journal of the Association for Information Science and Technology.

https://doi.org/10.1002/asi.24713

 

Merton, Robert K. (1973). The sociology of science: Theoretical and empirical investigations. Chicago, IL, USA: University of Chicago press. ISBN: 0 226 52092 7

 

Moed, Henk F. (2005). Citation analysis in research evaluation. Berlin: Springer. ISBN: 978 1 4020 3714 6

 

Singh Chawla, Dalmeet (2022). “Should AI have a role in assessing research quality?”. Nature News.

https://doi.org/10.1038/d41586-022-03294-3

 

Small, Henry (1982). “Citation context analysis”. In Dervin B., Voigt M. (Eds.). Progress in communication sciences (pp. 287-310). Norwood, NJ: Ablex. ISBN: 0 89391 060 0

 

Small, Henry (2004). “On the shoulders of Robert Merton: Towards a normative theory of citation”. Scientometrics, v. 60, n. 1, pp. 71-79.

https://doi.org/10.1023/b:scie.0000027310.68393.bc

 

Tahamtan, Imán; Bornmann, Lutz (2022). “The Social Systems Citation Theory (SSCT): A proposal to use the social systems theory for conceptualizing publications and their citations links”. Profesional de la información, v. 31, n.4.

https://doi.org/10.3145/epi.2022.jul.11

 

Thelwall, Mike (2006). “Interpreting social science link analysis research: A theoretical framework”. Journal of the American Society for information science and technology, v. 57, n. 1), pp. 60-68.

https://doi.org/10.1002/asi.20253

 

van Raan, Anthony F.J. (1998). “In matters of quantitative studies of science the fault of theorists is offering too little and asking too much”. Scientometrics, v. 43, n. 1, pp. 129-139.

https://doi.org/10.1007/bf02458401

 

Wouters, Paul (1999). “Beyond the Holy Grail: From citation theory to indicator theories”. Scientometrics, v. 44, n.3, pp. 561-580.

https://doi.org/10.1007/bf02458496

 

Yutong, Fei; Bertin, Marc (2022). “The multilingual aspect of citation contexts”. In 26th International Conference on Science and Technology Indicators, pp.1-4.

https://doi.org/10.5281/zenodo.6957504



Apéndice A. Revista científica

Se ha tomado como caso de estudio la revista Profesional de la información. Para ello se han obtenido las 1.604 contribuciones publicadas en esta revista indexadas en Social Science Citation Index (SSCI). La búsqueda realizada fue la siguiente:

 

PROFESIONAL DE LA INFORMACION (Publication Titles) and Social Sciences Citation Index (SSCI) (Web of Science Index) and 2022 (Exclude – Publication Years)

 

Para cada una de las publicaciones se ha obtenido el número de citas totales recibidas, el número de publicaciones desde donde se contabilizan las citas clasificadas (citing items) y el número de instancias de citas clasificadas por tipo de cita. Para ello se ha considerado nuevamente SSCI. Los datos fueron tomados el 15 de octubre de 2022.

 

Tabla 1. Citas clasificadas recibidas por Profesional de la información por fecha de publicación

Año

Publicaciones

Citas

Instancias de citas

Citas recibidas

(Sumatorio)

Citing

items

%

Background

Basis

Support

Differ

Discuss

2021

125

195

38

19,5

29

1

3

0

10

2020

192

1.736

223

12,8

147

51

8

0

69

2019

128

718

59

8,2

48

5

2

0

10

2018

121

1.040

64

6,2

50

6

1

0

17

2017

115

1.076

57

5,3

44

5

4

0

15

2016

95

770

35

4,5

23

4

0

0

10

2015

89

920

25

2,7

19

3

0

0

9

2014

73

510

20

3,9

15

7

0

1

3

2013

72

384

7

1,8

3

0

0

0

4

2012

87

557

11

2,0

9

1

1

0

4

2011

93

348

3

0,9

3

0

0

0

0

2010

93

541

5

0,9

5

0

0

0

Plan 2.0 para el acceso abierto: ¿un plan o una nueva ambigüedad?

Publicado en THE Times Higher Education https://www.timeshighereducation.com/news/plan-s-20-open-access-plan-bold-may-prove-ineffective   El...