Mostrando entradas con la etiqueta Rankings. Mostrar todas las entradas
Mostrando entradas con la etiqueta Rankings. Mostrar todas las entradas

sábado, 26 de octubre de 2024

CHINA: investigadores de élite dicen que "no tuvieron más remedio" que cometer faltas de conducta

Publicado en Nature
https://www.nature.com/articles/d41586-024-01697-y?utm_medium=Social&utm_campaign=nature&utm_source=Twitter&s=08#Echobox=1718099290 


Investigadores de élite chinos dicen que "no tuvieron más remedio" que cometer faltas de conducta


Entrevistados anónimos afirman que incurrieron en conductas poco éticas para proteger sus puestos de trabajo, aunque otros afirman que el estudio presenta una visión excesivamente negativa.


Por Smriti Mallapaty


"No tuve más remedio que cometer faltas [de investigación]", admite un investigador de una universidad china de élite. Esta sorprendente revelación se recoge en una colección de varias docenas de entrevistas anónimas en profundidad que ofrecen testimonios de primera mano de investigadores que han incurrido en conductas poco éticas y describen lo que les llevó al límite. Un artículo basado en estas entrevistas se publicó en abril en la revista Research Ethics (1)


El entrevistador, el sociólogo Zhang Xinqu, y su colega Wang Peng, criminólogo, ambos de la Universidad de Hong Kong, sugieren que los investigadores se sentían obligados, e incluso alentados, a incurrir en conductas poco éticas para proteger sus puestos de trabajo. Esta presión, concluyen, procedía en última instancia de un programa chino para crear universidades reconocidas en todo el mundo. El programa impulsó a algunas instituciones chinas a fijarse ambiciosos objetivos de publicación, afirman. 


El artículo ofrece "un atisbo del dolor y la culpa que sentían los investigadores" cuando incurrían en conductas poco éticas, afirma Elisabeth Bik, investigadora y asesora de imágenes científicas en San Francisco (California). 


Sin embargo, otros investigadores afirman que los resultados ofrecen una imagen excesivamente negativa del programa chino. Zheng Wenwen, responsable de integridad de la investigación en el Instituto de Información Científica y Técnica de China, dependiente del Ministerio de Ciencia y Tecnología, en Pekín, afirma que el tamaño de la muestra es demasiado pequeño para extraer conclusiones fiables. El estudio se basa en entrevistas con personal de sólo tres institutos de élite, a pesar de que en la actualidad más de 140 instituciones forman parte del programa de creación de universidades y disciplinas de investigación competitivas a escala internacional.


Los rankings, un juego


En 2015, el Gobierno chino introdujo la Iniciativa Doble Primera Clase para establecer universidades y disciplinas de "talla mundial". Las universidades seleccionadas para ser incluidas en el programa reciben financiación extra, mientras que las que obtienen malos resultados corren el riesgo de ser excluidas de la lista, afirma Wang.


Entre mayo de 2021 y abril de 2022, Zhang realizó entrevistas virtuales anónimas a 30 profesores y 5 estudiantes de ciencias naturales de tres de estas universidades de élite. Entre los entrevistados había un presidente, decanos y jefes de departamento. Los investigadores también analizaron documentos internos de las universidades.


Los responsables universitarios entrevistados en los tres institutos afirmaron que entendían que era responsabilidad suya interpretar los objetivos del programa Doble Primera Clase. Decidieron que, para permanecer en el programa, sus universidades debían mejorar su posición en los rankings internacionales y que, para ello, sus investigadores debían publicar más artículos en revistas internacionales indexadas en bases de datos como el Science Citation Index. 


Algunas universidades trataban los rankings universitarios mundiales como un "juego" que había que ganar, afirma Wang.


A medida que la directiva descendía en la jerarquía institucional, aumentaba la presión por el rendimiento en esos institutos. Los departamentos universitarios fijaron criterios de publicación específicos y difíciles de alcanzar para que los académicos obtuvieran ascensos y titularidades.


Algunos investigadores admitieron haber incurrido en prácticas de investigación poco éticas por miedo a perder su empleo. En una entrevista, el director de una facultad dijo: "Si alguien no puede cumplir los criterios [relativos a las publicaciones], le sugiero que se vaya cuanto antes".


Zhang y Wang describen a investigadores que recurren a servicios para que escriban sus artículos por ellos, falsifican datos, plagian, explotan a estudiantes sin ofrecerles la autoría y sobornan a directores de revistas.


Uno de los entrevistados admitió haber pagado por acceder a un conjunto de datos. "Compré el acceso a un archivo oficial y alteré los datos para apoyar mis hipótesis".


Un decano adjunto subrayó la primacía del objetivo de publicar. «No debemos ser excesivamente estrictos a la hora de identificar y castigar las faltas de ética investigadora, ya que dificultan la eficacia investigadora de nuestros becarios».


Eso no es todo


Los autores «dan en el clavo» al describir la relación entre la presión institucional y la mala conducta investigadora, afirma Wang Fei, que estudia la política de integridad de la investigación en la Universidad Tecnológica de Dalian.



*************************

  • NEWS

  • 11 June 2024

Elite researchers in China say they had ‘no choice’ but to commit misconduct

Anonymous interviewees say they engaged in unethical behaviour to protect their jobs — although others say study presents an overly negative view.

“I had no choice but to commit [research] misconduct,” admits a researcher at an elite Chinese university. The shocking revelation is documented in a collection of several dozen anonymous, in-depth interviews offering rare, first-hand accounts of researchers who engaged in unethical behaviour — and describing what tipped them over the edge. An article based on the interviews was published in April in the journal Research Ethics1.

The interviewer, sociologist Zhang Xinqu, and his colleague Wang Peng, a criminologist, both at the University of Hong Kong, suggest that researchers felt compelled, and even encouraged, to engage in misconduct to protect their jobs. This pressure, they conclude, ultimately came from a Chinese programme to create globally recognized universities. The programme prompted some Chinese institutions to set ambitious publishing targets, they say.  

The article offers “a glimpse of the pain and guilt that researchers felt” when they engaged in unethical behaviour, says Elisabeth Bik, a scientific-image sleuth and consultant in San Francisco, California. 

But other researchers say the findings paint an overly negative picture of the Chinese programme. Zheng Wenwen, who is responsible for research integrity at the Institute of Scientific and Technical Information of China, under the Ministry of Science and Technology, in Beijing, says that the sample size is too small to draw reliable conclusions. The study is based on interviews with staff at just three elite institutes — even though more than 140 institutions are now part of the programme to create internationally competitive universities and research disciplines.  

Rankings a game

In 2015, the Chinese government introduced the Double First-Class Initiative to establish “world-class” universities and disciplines. Universities selected for inclusion in the programme receive extra funding, whereas those that perform poorly risk being delisted, says Wang.

Between May 2021 and April 2022, Zhang conducted anonymous virtual interviews with 30 faculty members and 5 students in the natural sciences at three of these elite universities. The interviewees included a president, deans and department heads. The researchers also analysed internal university documents. 

The university decision-makers who were interviewed at all three institutes said they understood it to be their responsibility to interpret the goals of the Double First-Class scheme. They determined that, to remain on the programme, their universities needed to increase their standing in international rankings — and that, for that to happen, their researchers needed to publish more articles in international journals indexed in databases such as the Science Citation Index.

Some universities treated world university rankings as a “game” to win, says Wang.

As the directive moved down the institutional hierarchy, pressure to perform at those institutes increased. University departments set specific and hard-to-reach publishing criteria for academics to gain promotion and tenure.

Some researchers admitted to engaging in unethical research practices for fear of losing their jobs. In one interview, a faculty head said: “If anyone cannot meet the criteria [concerning publications], I suggest that they leave as soon as possible.”

Zhang and Wang describe researchers using services to write their papers for them, falsifying data, plagiarizing, exploiting students without offering authorship and bribing journal editors.

One interviewee admitted to paying for access to a data set. “I bought access to an official archive and altered the data to support my hypotheses.”  

An associate dean emphasized the primacy of the publishing goal. “We should not be overly stringent in identifying and punishing research misconduct, as it hinders our scholars’ research efficiency.”

Not the whole picture

The authors “hit the nail on the head” in describing the relationship between institutional pressure and research misconduct, says Wang Fei, who studies research-integrity policy at Dalian University of Technology.   

But she says it’s not the whole picture. Incentives to publish high-quality research are part of broader reforms to the higher-education system that “have been largely positive”. “The article focuses almost exclusively on the negative aspects, potentially misleading readers into thinking that Chinese higher education reforms are severely flawed and accelerating research misconduct.”

Tang Li, a science- and innovation-policy researcher at Fudan University in Shanghai, agrees. The first-hand accounts are valuable, but the findings could be biased, she says, because those who accepted the interview might have strong feelings and might not represent the opinions of those who declined to be interviewed.

Zheng disagrees with the study’s conclusions. In 2020, the government issued a directive for Double First-Class institutes. This states specifically that evaluations should be comprehensive, and not just focus on numbers of papers, she says. Research misconduct is a result not of the Double First-Class initiative, but of an “insufficient emphasis on research integrity education”, says Zheng.

Punishing misconduct

The larger problem, says Xiaotian Chen, a library and information scientist at Bradley University in Peoria, Illinois, is a lack of transparency and of systems to detect and deter misconduct in China. Most people do the right thing, despite the pressure to publish, says Chen, who has studied research misconduct in China. The pressure described in the paper could just be “an excuse to cheat”.

The Chinese government has introduced several measures to crack down on misconduct, including defining what constitutes violations and specifying appropriate penalties. They have also banned cash rewards for publishing in high-impact journals.

Wang Peng says that government policies need to be more specific about how they define and punish different types of misconduct.

But Zheng says that, compared with those that apply in other countries, “the measures currently taken by the Chinese government to punish research misconduct are already very stringent”.

The authors also ignore recent government guidance for elite Chinese institutions to break with the tendency of evaluating faculty members solely on the basis of their publications and academic titles, says Zheng.

Tang points out that the road to achieving integrity in research is long. “Cultivating research integrity takes time and requires orchestrated efforts from all stakeholders,” she says.

And the pressure to publish more papers to drive up university rankings “is not unique to China”, says Bik. “Whenever and wherever incentives and requirements are set up to make people produce more, there will be people ‘gaming the metrics’.”

doi: https://doi.org/10.1038/d41586-024-01697-y

ReferencesZhang, X. & and Wang, P. Res. Ethics https://doi.org/10.1177/17470161241247720 (2024).

domingo, 21 de julio de 2024

Rankings: ¿qué imagen de la universidad pública proyectan?

Publicado en CAMPUS. Suplemento educativo
https://suplementocampus.com/rankings-que-imagen-de-la-universidad-publica-proyectan/ 



Rankings: ¿qué imagen de la universidad pública proyectan?

 
18 julio, 2024 por 

Estas evaluaciones, que examinan el desempeño de las instituciones de educación superior, pueden representar un aporte invaluable en el rediseño del proyecto nacional de este nivel educativo

Se abrió la temporada 2024 de rankings, cuando SCIMAGO publicó hace unos meses su clasificación anual de instituciones de educación superior (IES). Sigue abierta, con la sucesiva puesta en circulación de otros resultados. Tomando en cuenta los repetitivos anuncios de que uno de los objetivos de la administración pública saliente en México consistió en reformar los parámetros de evaluación (por institución y carrera) en la educación superior, mediante las propuestas emitidas en particular por las COEPES, nos interesó entonces reflexionar sobre esos instrumentos en tanto esquemas fidedignos para medir la calidad de los establecimientos, con base en indicadores internacionales.

Los rankings examinan el desempeño de las instituciones en función de criterios preestablecidos. SCIMAGO utiliza principalmente los de capacidades de investigación, innovación y proyección social para clasificar los establecimientos seleccionados. Sus datos permiten reconstituir su participación, durante más de una década. Muestran que esa se incrementó, sobre todo en las universidades públicas y en los centros de investigación. México es, así, el segundo usuario de este ranking, después de Brasil. en América Latina.

Su prevalencia numérica está acorde con el tamaño de su sistema nacional de educación superior. Expresa también un interés, inducido por las políticas públicas de aseguramiento de calidad, por un mecanismo que no todos los países de la región adoptaron. Uruguay, Venezuela, los países del Caribe y de América Central manifestaron poco interés en el mientras otros, en contraste, apostaban a ese esquema en tanto generador de mediciones y ordenamientos (Chile, Colombia, Ecuador y, en menor medida, México, Perú y Argentina)

En México, el número de IES, incluidas en SCIMAGO, aumentó de 42 en 2010 a 80 en 2024. Ese auge fue concomitante con una diversificación de los establecimientos acreditados: se acrecentó la presencia de institutos nacionales, principalmente en Salud, de dependencias paraestatales, del Tecnológico Nacional de México, en el sector público y de instituciones privadas prestigiadas, aunque las universidades, federales y estatales, continuaron siendo las más numerosas.

Globalmente, las 54 IES mexicanas, clasificadas entre las 500 primeras del ranking global, ocuparon posiciones intermedias. Están lidereadas por la UNAM, situada en el cuartil 1 de excelencia, en la posición 205. Otros 20 establecimientos pertenecen a ese mismo cuartil, aunque en rangos inferiores al de la UNAM. Los demás están ubicados en los cuartiles 2, 3 y 4. Pese a resultados medianos, en forma general, muchos establecimientos mejoraron sus resultados, en comparación con los alcanzados al principio del periodo documentado. Ese avance denota un mayor grado de entendimiento del dispositivo clasificatorio por parte de las IES y un alineamiento creciente sobre los criterios exigidos de desempeño.

Por indicador específico, sin embargo, el panorama es menos alentador: sólo un puñado de establecimientos cumple con el indicador de capacidades de investigación y está incluido entre las 500 mejores. De hecho, en la región, solamente una institución colombiana, una chilena, una argentina y 4 brasileñas más la UNAM en México fueron seleccionadas. Si, a escala iberoamericana, el predominio de España es abrumador, la participación de México involucró apenas 9 instituciones. La exclusión es todavía mayor, respecto de la innovación ya que ninguna IES de América Latina estuvo inserta, en la lista mundial. En cambio, la regional abarca unas 85 mexicanas. México participó más en el indicador de contribución/vinculación social, con 3y 62 establecimientos a escala mundial y latinoamericana.

Esas cifras, además de áridas, son deprimentes, aunque menos inquietantes que las arrojadas por otros rankings. Deberían, en lugar de alimentar una defensa a ultranza o una condena perentoria, alimentar una discusión sobre lo que hacen las IES y sobre sus perspectivas de futuro, habida cuenta de condiciones desfavorables de financiamiento, de organización y su imparable burocratización, incompatible con su productividad académica. Si bien los rankings sirven para jerarquizar internacionalmente los polos de saber, sus resultados deberían nutrir una reflexión autocrítica sobre los desvíos en la conducción y gobernanza de las IES. Esas son, en mi opinión, excesivamente controladoras e irrespectuosas de los valores cardinales de los investigadores.

En otras palabras, los rankings no sólo son un barómetro para calibrar la atractividad de una institución respecto de otras, en un mercado global de la educación superior, aunque este sea su uso más común. Dan pistas para juzgar los resultados de las políticas públicas nacionales aplicadas a los establecimientos, independientemente de comprensibles divergencias de opinión sobre su pertinencia. Habría que tomar en cuenta esos aportes en el indispensable rediseño del proyecto nacional de educación superior.


lunes, 15 de julio de 2024

10 sep: ¡Lanzamiento del Ranking CWTS Leiden 2024!

Publicado en CWTS Leiden Ranking]
https://www.leidenranking.com/?_cldee=zUp5czLnuq96_bENnqqxDr7Zt1lfqGQjasbRIRs9y2_uvi5vhnrbRe0pJm_T3vn7&recipientid=contact-b07fd22e9ac2ea11815600085d089b39-88ce8199f7b244f6bbea3207dc0a77d6&esid=322c7d6c-112e-ef11-840a-7c1e522705d6


¡Lanzamiento del Ranking CWTS Leiden 2024!

Noticias emocionantes: ¡lanzamiento del Ranking CWTS Leiden!

Nos complace anunciar el lanzamiento de la edición 2024 del Ranking CWTS Leiden, una importante fuente de información sobre el rendimiento global de las universidades. El ranking de este año continúa con nuestra tradición de ofrecer análisis sólidos y perspicaces, destacando las instituciones en términos de impacto científico, colaboración, acceso abierto y género.

Invitamos a universidades, investigadores, responsables políticos y al público en general a explorar las clasificaciones, diseñadas para analizar el rendimiento de las universidades desde una perspectiva multidimensional. Nuestros principios para el uso responsable de los rankings universitarios explican por qué esto es vital.

El Ranking CWTS Leiden mantiene su compromiso con el rigor y la transparencia, asegurando que refleja el verdadero estado del arte en métodos bibliométricos. Por favor, marque en su calendario el lanzamiento de la Edición Abierta 2024 del Ranking CWTS Leiden: 10 de septiembre de 2024.
Clasificación CWTS Leiden 2024

El Ranking CWTS Leiden 2024 ofrece información importante sobre el rendimiento científico de más de 1500 grandes universidades de todo el mundo. Seleccione sus indicadores preferidos, genere resultados y explore el rendimiento de las universidades.  

Seleccionar, generar y explorar

El Ranking Leiden le permite seleccionar sofisticados indicadores bibliométricos, generar resultados basados en estos indicadores y explorar los resultados desde tres perspectivas diferentes. La más conocida es la tradicional vista de lista, en la que puede clasificar las universidades según un indicador seleccionado. El Ranking Leiden ofrece dos perspectivas adicionales: la vista de gráfico y la vista de mapa. La vista de gráfico muestra las universidades en un diagrama de dispersión, para que pueda explorar el rendimiento de las universidades utilizando dos indicadores seleccionados. La vista de mapa muestra las universidades en un mapamundi y proporciona una perspectiva geográfica de las universidades y su rendimiento.

Perspectiva multidimensional

El Ranking Leiden representa una perspectiva multidimensional del rendimiento universitario. Nuestros principios para el uso responsable de los rankings universitarios explican por qué esto es crucial. Depende de usted seleccionar el indicador que desea utilizar para clasificar las universidades. El Ranking Leiden proporciona indicadores de impacto científico, colaboración, publicación en acceso abierto y diversidad de género. El tamaño es importante a la hora de comparar universidades: el rendimiento puede verse desde una perspectiva absoluta o relativa (por ejemplo, el número frente al porcentaje de publicaciones altamente citadas). Esta es la razón por la que los indicadores dependientes e independientes del tamaño se presentan sistemáticamente juntos en el Ranking de Leiden. Esto pone de manifiesto la necesidad de tener en cuenta ambos tipos de indicadores.

Un ranking único

Comparado con otros rankings de universidades, el Ranking Leiden ofrece indicadores bibliométricos más avanzados. La metodología subyacente está ampliamente documentada. El Ranking Leiden proporciona información exclusivamente sobre la investigación realizada en las universidades. La investigación está representada en publicaciones, y los datos cuidadosamente recogidos sobre estas publicaciones forman la base del Ranking de Leiden. Esta base también asegura la independencia del Ranking de Leiden, ya que no depende de los datos proporcionados por las propias universidades. Finalmente, debido a que las universidades son instituciones complejas que tienen una variedad de formas, contextos y misiones, su rendimiento no puede ser representado por un único número. El Ranking Leiden presenta una variedad de indicadores para que pueda explorar el rendimiento de las universidades desde diferentes ángulos. 
 


**********************************

Launch of the CWTS Leiden Ranking 2024!

Exciting News: launch of the CWTS Leiden Ranking!

 

We are excited to announce the launch of the CWTS Leiden Ranking 2024 edition, a source of important insight into global university performance. This year's ranking continues our tradition of delivering robust and insightful analyses, highlighting institutions in terms of scientific impact, collaboration, open access and gender.



We invite universities, researchers, policymakers, and the public to explore the rankings, which are designed to explore university performance from a multidimensional perspective. Our principles for responsible use of university rankings explain why this is vital.

The CWTS Leiden Ranking remains committed to rigor and transparency, ensuring it reflects the true state of the art in bibliometric methods. Please mark your calendar for the launch of the CWTS Leiden Ranking Open Edition 2024: September 10th, 2024.


To the CWTS Leiden Ranking


CWTS Leiden Ranking 2024


The CWTS Leiden Ranking 2024 offers important insights into the scientific performance of over 1500 major universities worldwide. Select your preferred indicators, generate results, and explore the performance of universities.   

Select, generate and explore

The Leiden Ranking enables you to select sophisticated bibliometric indicators, to generate results based on these indicators and to explore the results from three different perspectives. Best known is the traditional list view, in which you can rank universities according to a selected indicator. The Leiden Ranking offers two additional perspectives: the chart view and the map view. The chart view shows universities in a scatter plot, so that you can explore the performance of universities using two selected indicators. The map view shows universities in a world map and provides a geographical perspective on universities and their performance.

Multidimensional perspective

The Leiden Ranking stands for a multidimensional perspective on university performance. Our principles for responsible use of university rankings explain why this is crucial. It is up to you to select the indicator that you wish to use to rank universities. The Leiden Ranking provides indicators of scientific impact, collaboration, open access publishing, and gender diversity. Size matters when comparing universities: performance can be viewed from an absolute or a relative perspective (e.g., the number versus the percentage of highly cited publications). That is why size-dependent and size-independent indicators are consistently presented together in the Leiden Ranking. This highlights that both types of indicators need to be taken into account.

A unique ranking

Compared with other university rankings, the Leiden Ranking offers more advanced bibliometric indicators. The underlying methodology is richly documented. The Leiden Ranking provides information exclusively about the research done at universities. Research is represented in publications, and carefully collected data about these publications forms the basis for the Leiden Ranking. This basis also ensures the independence of the Leiden Ranking, since there is no reliance on data submitted by the universities themselves. Finally, because universities are complex institutions that have a variety of forms, contexts and missions, their performance cannot be represented by a single number. The Leiden Ranking presents a variety of indicators for you to explore the performance of universities from different angles.             

          


"¡Quemadlo con fuego!" - El uso de ChatGPT «polariza» a los revisores

Publicado en THE Times Higher Education https://www.timeshighereducation.com/news/corrupting-chatgpt-use-polarises-peer-reviewers   Quemadlo...