miércoles, 12 de julio de 2023

Nueva Taxonomía de la Ciencia Abierta

Como resultado de un proceso investigativo de varios autores iberoamericanos, se presenta a la comunidad científica y académica el resultado de este trabajo, que condujo a una nueva "Taxonomía de la ciencia abierta: revisada y ampliada". https://doi.org/10.5007/1518-2924.2023.e91712/53422

 

La nueva taxonomía tiene 10 componentes de nivel principal y un total de 96 etiquetas. 


image.png


Es un aporte desde la Región para el mundo, buscando una versión más completa, que represente el conocimiento en torno al tema, de acuerdo con el escenario actual de la comunicación científica y las recomendaciones de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO).

 

Considerando ese propósito de alcance mundial, se puede conocer la misma y el artículo que la presenta y soporta, en tres idiomas: español, portugués e inglés.

 

Les invitamos a conocerla, ya que consideramos será un aporte tanto a lo teórico como lo aplicado en la compresión, planeación, implementación, evaluación y avance de la Ciencia Abierta sea a nivel profesional, organizacional o de país...

 

Versión OJS principal: https://periodicos.ufsc.br/index.php/eb/article/view/91712

 

*****

Artículo en español: https://periodicos.ufsc.br/index.php/eb/article/view/91712/53422

Figura. Taxonomía en español: https://zenodo.org/record/7858978

 

Artículo en portugués: https://periodicos.ufsc.br/index.php/eb/article/view/91712/53420

Figura. Taxonomía en portugués: https://zenodo.org/record/7836884

 

Artículo en inglés: https://periodicos.ufsc.br/index.php/eb/article/view/91712/53421

Figura. Taxonomía en inglés: https://zenodo.org/record/7940641

 

*****

Conjunto de datos: https://zenodo.org/record/7837274

Comparación taxonomías ciencia abierta anteriores: https://zenodo.org/record/7837235

*****

 

Esperamos que este aporte sea de su agrado. Saludes en nombre de todos los colegas que participamos en esta investigación y su versión final de publicación.

--

Alejandro Uribe Tirado PhD en Documentación Científica Profesor / Investigador - Escuela Interamericana de Bibliotecología Sublíneas: ALFIN, Altmetrics, Ciencia Abierta, Open Access, TIC, E-learning y G.del Conocimiento Coord. Grupo de Investigación "Información, Conocimiento y Sociedad" EIB Comisión Ciencia Abierta UdeA Integrante de COLAV, RedÍconos, Repositorio E-lis, Ciencia Abierta como Bien Común-Grupo CLACSO y Grupo E-Infosfera UGR


Universidad de Antioquia (Blq. 12-305 / +574-2195935) Medellín-Colombia

auribe.bibliotecologia.udea@gmail.com
alejandro.uribe2@udea.edu.co - grupoinformacionconocimientoysociedad@udea.edu.co 
inv.auribe@ugr.es
***
https://www.facebook.com/groups/accesoabiertoyaltmetrics/ 
https://www.facebook.com/groups/cienciaabierta.ciencia2.0yuniversidad/
https://twitter.com/alejouribet 
http://alfincolombia.blogspot.com
http://alfiniberoamerica.blogspot.com
***
https://bit.ly/2OPk74l - https://www.directorioexit.info/ficha525 (Currículo) 

https://bit.ly/3xKmLPR - https://bit.ly/3xKDqDd (Grupos de Investigación)

https://bit.ly/3vwQeuc (Cursos curriculares en Moodle) *** https://bit.ly/42N5oLD - http://bit.ly/3zhwGvY (Publicaciones en acceso abierto) http://bit.ly/1HffALS (G. Scholar) http://bit.ly/1I4NNPl (Research Gate) http://orcid.org/0000-0002-0381-1269 (ORCID / ResearcherID) http://www.redalyc.org/autor.oa?id=597 (Autores RedAlyc) https://alpha.openalex.org/works?filter=authorships.author.id%3AA4355967528 (OpenAlex)

martes, 11 de julio de 2023

"Compass to Publish": herramienta en línea que ayuda a identificar revistas y editoriales depredadoras

Publicado en Universidade de Coimbra
https://www.uc.pt/en/openscience/news/compass-to-publish-online-tool-helps-to-identify-predatory-journals-and-publishers/ 


Compass to Publish: https://app.lib.uliege.be/compass-to-publish/ 


"Compass to Publish": herramienta en línea que ayuda a identificar revistas y editoriales depredadoras


Un servicio de la Universidad de Lieja ayuda a los investigadores a determinar el grado de autenticidad de las revistas de acceso abierto


LC

Lorena Caliman

14 diciembre, 2020



La Universidad de Lieja (University of Liège) puso a disposición, a finales de noviembre 2020, la versión Beta de "Compass to Publish", un servicio que, a través de varios criterios, cuantifica el grado de autenticidad de las revistas científicas de acceso abierto que exigen u ocultan gastos de procesamiento de artículos (APC).



La herramienta de evaluación en línea presenta una escala de resultados de 7 colores, que categorizan el carácter falso o engañoso de las revistas analizadas. En los bordes aparecen el rojo oscuro -que indica que la revista es muy probablemente depredadora, y que es mejor evitarla- y el verde oscuro -que indica que las respuestas muestran una alta probabilidad de no ser una publicación depredadora-. La idea detrás de la escala de siete colores es permitir una visión más matizada en comparación con la lógica binaria de las listas de confianza y las bases de datos de revistas depredadoras.


El servicio utiliza un método de evaluación basado en 26 criterios en forma de preguntas para la persona que presenta la prueba. Los criterios y las preguntas son el resultado del trabajo crítico y analítico del equipo responsable (team behind the tool) de la herramienta, que examinó las prácticas de un número significativo de revistas y editores depredadores. El equipo también llevó a cabo una investigación cualitativa y una selección de criterios elaborados por listas y directorios de confianza, entre los que se seleccionaron aquellos que eran realmente incriminatorios y fáciles de comprobar, suficientemente relevantes y claros, y fáciles de utilizar.


Los 26 criterios se dividen en 7 secciones principales: listas de confianza (plataformas de indexación), listas de revistas y editores supuestamente depredadores (conocidas como "listas negras"), revistas secuestradas, indexación y métricas, comité editorial y revisión por pares, contenido y presentación, y estrategias de comunicación. Consulte (Check) la lista completa de preguntas del examen.



Sobre revistas y editores depredadores


Se destaca la importancia de este tipo de herramientas, teniendo en cuenta las estimaciones de que solo en 2014 se publicaron entre 255.000 y 420.000 artículos en revistas depredadoras. Una investigación internacional sobre Fake Science, liderada por decenas de medios de comunicación, entre ellos Le Monde, el alemán Süddeutsche Zeitung y la revista The New Yorker, informó en 2018 de que podría haber más de 10.000 revistas depredadoras en funcionamiento.


Las revistas depredadoras se hacen pasar por revistas que publican en acceso abierto y cobran APC por los servicios que dicen proporcionar. Sin embargo, a menudo no proporcionan estos servicios, o lo hacen sólo superficialmente. Aunque afirman prestar servicios que incluyen políticas de archivo e indexación, revisión editorial, edición, formateo y el proceso de revisión por pares, a menudo no lo hacen y, en algunos casos, ni siquiera publican el material enviado y por el que han exigido el pago de tasas.


El modelo "el autor paga", secuestrado por las revistas depredadoras, es habitual en las publicaciones académicas. Permite a los lectores tener acceso libre y gratuito a los contenidos de la investigación mediante el pago de tasas, ya sea por parte de los autores, sus instituciones o financiadores. El modelo de pago por el autor, sin embargo, no es el más común en la publicación en Acceso Abierto: más del 70% de las revistas incluidas en el DOAJ (Directory of Open Access Journals) no exigen el pago de APCs.


Las editoriales y revistas depredadoras utilizan un modelo de negocio basado en la publicación cuantitativa, por la sencilla razón de que cuanto más publican, más dinero reciben. Para maximizar sus beneficios, los editores depredadores suelen tener un catálogo muy amplio de revistas, y las revistas depredadoras suelen adoptar una estrategia de publicación de alta frecuencia, publicando un gran número de números.


Los investigadores que quieren seguir siendo competitivos mediante la publicación rápida pueden convertirse en víctimas fáciles de este tipo de publicación depredadora. Es habitual que las partes interesadas en la comunicación científica sigan utilizando métodos principalmente cuantitativos para evaluar la investigación, lo que puede influir en los investigadores para que publiquen en canales depredadores, ya sea deliberada o involuntariamente.


Además de los modelos de publicación en acceso abierto, el fenómeno de la "falsa ciencia" también está asociado a los falsos congresos y a las vanity presses (editoriales en las que los autores pagan para que se publiquen sus libros) que ofrecen publicar trabajos de estudiantes e investigadores mediante un modelo de impresión bajo demanda sin prestar servicios serios como la redacción, la revisión por pares, la edición, el formateo, etc.


 *************************************

"Compass to Publish": online tool helps to identify predatory journals and publishers

Service from University of Liège assists researchers in determining the degree of authenticity of open access journals

LC

Lorena Caliman

14 december, 2020



The University of Liège made available, at the end of November, the Beta version of "Compass to Publish", a service that, through various criteria, quantifies the degree of authenticity of open access scientific journals that require or hide article processing charges (APCs).

The online evaluation tool presents a 7-color scale of results, which categorize the fake or deceptive character of the tested journals. At the edges are dark red - indicating that the magazine is most likely predatory, and it is best to avoid it - and dark green - indicating that the answers show a high probability of not being a predatory publication. The idea behind the seven-color scale is to allow a more nuanced view in comparison to the binary logic of trusted lists and databases of predatory journals.

The service uses an assessment method based on 26 criteria in the form of questions for the person who is submitting the test. The criteria and questions are the result of critical and analytical work by the team behind the tool, which examined the practices of a significant number of predatory journals and publishers. The team also carried out a qualitative research and selection of criteria developed by trusted lists and directories, from which those that were really incriminating and easy to check, sufficiently relevant and clear, and user friendly were selected. 

The 26 criteria are divided into 7 main sections: trusted lists (indexing platforms), lists of alleged predatory magazines and publishers (known as 'blacklists'), hijacked magazines, indexing and metrics, editorial board and peer review, content and presentation, and communication strategies. Check the complete list of questions covered by the test.

About predatory journals and publishers

The importance of this type of tool is highlighted, considering estimates that in 2014 alone, between 255,000 and 420,000 articles were published in predatory journals. An international investigation into Fake Science, led by dozens of news outlets, including Le Monde, the German Süddeutsche Zeitung and The New Yorker magazine, reported in 2018 that there could be more than 10,000 predatory journals in operation.

Predatory journals pass themselves off as journals that publish on open access and charge APCs for services they claim to provide. However, they often do not provide these services, or do so only superficially. Although they claim to provide services that include archiving and indexing policies, editorial review, editing, formatting and the peer review process, they often do not - and in some cases, they do not even publish the material sent and for which they required the fees. 

The "author-pays" model, hijacked by the predatory journals, is common in academic publications. It allows readers to have free and open access to research content through fees paid, whether by the authors, their institutions or funders. The model of payment by the author, however, is not the most common in Open Access publication: more than 70% of the journals included in the DOAJ (Directory of Open Access Journals) do not require payment of APCs.

Predatory publishers and journals use a business model based on quantitative publishing, for the simple reason that the more they publish, the more money they receive. To maximize their profit, predatory publishers generally have a very wide catalog of journals, and predatory journals generally adopt a high-frequency publishing strategy, releasing large numbers of issues.  

Researchers who want to stay competitive through fast publishing can become easy victims of this type of predatory publishing. It is common for stakeholders in scientific communication to still use primarily quantitative methods of evaluating research, which can influence researchers to publish on predatory channels, either deliberately or unwittingly.

In addition to the Open Access publishing models, the phenomenon of 'fake science' is also associated with false conferences and the vanity presses (editorial house where authors pay to have their books published) that offer to publish works by students and researchers using a print-on-demand model without providing serious services such as editorial, peer review, editing, formatting etc.

lunes, 10 de julio de 2023

Así funcionan los ‘rankings’ universitarios internacionales

Publicado en El País
https://elpais.com/economia/formacion/2023-07-07/asi-funcionan-los-rankings-universitarios-internacionales.html 


Así funcionan los ‘rankings’ universitarios internacionales La presencia en las clasificaciones internacionales refleja el prestigio de las instituciones, analizando aspectos que van desde la investigación y la reputación académica a la empleabilidad y la sostenibilidad

Nacho Meneses

Madrid - 07 jul 2023 


Harvard, MIT, Cambridge, Oxford, Stanford... Cada vez que sale una nueva edición de cualquiera de los rankings internacionales de educación superior (ya sea el de Shanghái (ARWU), el QS o el Times Higher Education (THE), por citar tres de los más conocidos) destacando las mejores universidades del mundo, el hecho de no encontrar ninguna universidad española entre las 100 primeras levanta invariablemente muchas cejas, y la reflexión es la misma: ¿dónde están las instituciones españolas?

Tomando, como ejemplo, el ranking de QS, la primera institución académica española es la Universidad de Barcelona, en el puesto 149. Después vienen la Autónoma de Barcelona (164), la Complutense de Madrid (171) y la Autónoma de Madrid (199). Sería muy fácil argumentar que ello solo evidencia una falta de calidad académica y de relevancia internacional, pero sería una conclusión tan fácil de articular como profundamente errónea. ¿Los motivos? Son muchos, pero los trataremos de explicar a continuación.

Lo primero es poner los datos en una perspectiva correcta: “Si hay unas 20.000 universidades en el mundo con docencia e investigación reconocidas, estar en el Top 200 mundial es estar en el 1 % de las mejores. Y estar entre las 1.000 primeras es pertenecer al 5 % de las mejores”, explican desde CRUE Universidades Españolas. Una evaluación que comparten tanto en QS como en THE: “Aparecer en la lista ya es tener una posición fuerte, y estar en las 200 primeras es un logro espectacular. Pero lo mismo se puede decir del Top 500, donde hay 14 universidades españolas”, recuerda Ben Sowter, vicepresidente sénior de QS.

Otros indicadores sirven también para evidenciar la relevancia del sistema universitario español: es, para empezar, uno de los sistemas de enseñanza superior más sostenibles de Europa, con cuatro universidades en el Top 100. Además, si alrededor del 20 % de la investigación mundial se realiza, en la actualidad, gracias a la colaboración internacional, en España ese porcentaje se eleva al 50 %, ya que la mitad de su investigación se lleva a cabo con socios transfronterizos.

En lo que respecta a sus publicaciones científicas, el 30 % de los trabajos españoles se publica en el 10 % de las revistas académicas de mayor impacto, un 6 % más que la media mundial, según explican desde QS. Solo entre 2018 y 2022, España ha producido unos 420.000 artículos académicos y generado más de 2,5 millones de citas.

¿Para qué sirven los ‘rankings’?

La relevancia, para CRUE, es evidente, “dado que contribuyen a la reputación internacional de la institución y favorecen la movilidad académica y la atracción y captación del talento. No obstante, esto último, en el caso del profesorado, está muy condicionado por las contribuciones y recursos que puedan ofrecer nuestras universidades, que están lejos de las mejores universidades del mundo”. Así, mientras las universidades españolas tienen un gran atractivo entre el estudiantado internacional, no sucede lo mismo entre el profesorado de otros países. Y es que “España gasta, en sus universidades, del orden de un 20 % menos por estudiante sobre el PIB que la media de la OCDE. Y si hablamos del Top 150, entre tres y cuatro veces menos de media”, señalan desde CRUE.

¿Qué impacto tiene disponer de un claustro internacional? Para Sowter, un profesorado internacional planta la semilla necesaria para una colaboración académica entre universidades de distintos países, lo que a su vez mejorará la reputación académica internacional y atraerá un mayor número de citas.

De cara a los estudiantes, este tipo de clasificaciones puede constituir una valiosa herramienta a la hora de decidir dónde estudiar, ya sea en su propio país o en el extranjero. Para el profesorado, puede servir para buscar empleo en instituciones que perciben como más destacadas en sus respectivos campos. Para los Gobiernos, constituyen una fuente de información a tener en cuenta al dar forma a su política educativa. Y, en las instituciones, pueden promover un diálogo constructivo sobre su propio rendimiento: según una encuesta de liderazgo universitario elaborada por la OCDE, un 68 % los usa como una herramienta interna para implementar cambios organizativos, de gestión o académicos, además de ser instrumentales a la hora de identificar otras instituciones con las que asociarse.

¿Qué aspectos analizan?

Para elaborar estas tablas, las organizaciones responsables de los distintos rankings analizan una gran cantidad de información que va desde el prestigio internacional a la producción científica, la reputación académica, la empleabilidad e incluso la sostenibilidad de las instituciones. No todos lo hacen de la misma manera ni con el mismo enfoque: si la clasificación de Shanghái, para algunos la más relevante, se basa en métricas de producción y notoriedad científica (publicaciones, premios Nóbel, etcétera), en THE existe un enfoque más académico y de producción científica, y en QS se incorporan además indicadores relacionados con los resultados laborales y la sostenibilidad. En los dos últimos casos, una gran parte de la evaluación proviene de encuestas de reputación internacionales.

En el caso del ranking de Times Higher Educacion (THE), un 33 % de la puntuación proviene precisamente de una encuesta de reputación académica internacional que sirve para analizar tanto el entorno de aprendizaje como la calidad y cantidad de su investigación. Aquí se examina el prestigio percibido en la enseñanza de las instituciones (por ejemplo, un alto porcentaje de estudiantes de posgrado es indicativo de educación efectiva en los niveles más altos). Un 30 % adicional analiza la influencia de su investigación en trabajos académicos de otras partes del mundo (es decir, cuántas veces aparecen citados). Mientras, en el QS, un 30 % corresponde a la reputación académica percibida y un 20 % a la reputación de los empleadores.

“Las citas nos muestran cuánto contribuye cada universidad a la suma del conocimiento humano: nos dice qué investigaciones han destacado, cuáles han sido recogidas y desarrolladas por otros académicos y, lo que es más importante, destaca aquello que se ha compartido más globalmente para expandir los límites de nuestro conocimiento, independientemente de la disciplina que se trate”, cuenta Phil Baty, director de Asuntos Globales en THE. Solo en su ranking se examinaron 121 millones de citas en 15,5 millones de publicaciones de distinto tipo.

Los ‘rankings’ importan, pero hay más

Uno de los aspectos que conviene tener en cuenta a la hora de considerar estas clasificaciones es que no se trata (ni pretenden ser) el único baremo al que acudir, como recuerda Sowter: “No son ninguna autoridad en la elección individual de nadie. Deberían tomarse como una fuente de información más entre muchos otros factores que usen [por ejemplo] los estudiantes a la hora de tomar la decisión correcta y que son personales para cada uno de ellos (…). Se trata de que la opinión que se formen de la calidad de una determinada institución se base en su propia definición, y no en otra universal para todos elaborada por una organización de rankings que puede hallarse a miles de kilómetros de ellos”.

Por otro lado, las organizaciones responsables de elaborar estos rankings tienen también en cuenta la sensibilidad y los intereses tanto de los alumnos como de la sociedad en general. Por eso, tanto QS como THE incluyen en sus distintas clasificaciones aspectos como la sostenibilidad o la inserción laboral [si bien desde QS afirman ser los únicos que incluyen dichas consideraciones en su ranking principal]: “Esta es una generación de estudiantes que se enfrentan a un mercado laboral muy difícil y a numerosas fuerzas disruptivas; una generación muy concienciada con la sostenibilidad y con la necesidad de que tanto las instituciones a las que acudan, como la educación que reciban, reflejen esos valores”, añade Jessica Turner, CEO de QS.

Cómo mejorar en las clasificaciones

En lo que respecta a las universidades españolas, cabe preguntarse qué pasos podrían tomar para mejorar su posición de cara al futuro. Pero lo cierto es que no hay una única estrategia para ello. No se trata, por un lado, de simplemente publicar más, sino de que la calidad de esas publicaciones sea lo suficientemente buena como para tener un impacto en la comunidad académica global. Por otro lado, “se puede contratar más profesores, o comunicar con mayor eficiencia las capacidades y la reputación de cada universidad... Pero realmente no tiene sentido enfocarse solo en los aspectos medidos por los rankings, ya que hay muchas otras cosas que se interrelacionan con ellos. Así que la mejor manera de mejorar en una clasificación es mejorar la propia universidad, no según los baremos de ningún ranking, sino según el que cada institución haya elaborado para ellos mismos”, reflexiona Sowter.

Entre esos factores, precisa, las peculiaridades de cada universidad constituyen una dimensión crítica que se acabará viendo reflejada en las clasificaciones. “Nosotros usamos dos grandes encuestas universitarias para evaluar la reputación de cada universidad. Y esas encuestas responden no solo a la destreza y el prestigio, sino también a la innovación y a la existencia de un carácter distintivo, según el cual las instituciones entiendan en qué son mejores y sean capaces de ofrecer una identidad propia a su comunidad y a cualquier parte interesada”.

En cualquier caso, como recuerdan desde CRUE, es importante no perder de vista si una universidad realmente contribuye, y en qué medida, “a una verdadera transformación social que mejore la calidad de vida de las personas, con una mayor equidad y sostenibilidad”.

Una herramienta de Google permite detectar fácilmente la escritura generada por IA

Publicado en blog  Universo abierto https://universoabierto.org/2024/10/25/una-herramienta-de-google-permite-detectar-facilmente-la-escritur...