Mostrando entradas con la etiqueta Redacción. Mostrar todas las entradas
Mostrando entradas con la etiqueta Redacción. Mostrar todas las entradas

viernes, 11 de abril de 2025

Resúmenes (Abstracts) : inconsistencia entre lo reportado en los resúmenes de los artículos y el texto

Publicado en Xataka
https://www.xataka.com/investigacion/clickbait-ciencia-esta-resumenes-como-abstracts-se-han-convertido-fuente-error-articulos-cientificos



Unos investigadores han analizado qué dicen los resúmenes de los papers científicos. Hay bastante "clickbait"

Diversos estudios han hallado inconsistencias entre lo reportado en los resúmenes de los artículos y el texto


30 Marzo 2025
pablo-martinez

Pablo Martínez-Juarez

 

Los artículos académicos, los papers revisados por pares publicados en revistas científicas, son uno de los pilares de la ciencia hoy en día.
Estos artículos suelen tener una estructura más o menos definida,
con introducción, resultados, conclusiones y discusión, además de un apartado dedicado a la metodología empleada.


Un elemento que nunca (o prácticamente nunca) falta en este tipo de artículos es el 
abstract.

Abstract es el término con el que se conoce a una suerte de resumen
del contenido del artículo. Es una pieza clave que tiene el objetivo
 de servir de guía bibliográfica a quienes están buscando un estudio,
por lo que este breve texto debe responder adecuadamente a la
pregunta ¿de qué va este artículo?

Pero más allá de esta función básica, el abstract a menudo cumple
la función de resumen del artículo, incluyendo información sobre
métodos, resultados y conclusiones del experimento o estudio realizado.

Muchos de los artículos científicos son de acceso limitado, 
protegidos por un paywall, el precio de un solo artículo puede
ser de varias decenas de euros, pero los resúmenes están disponibles
en abierto.

Los artículos científicos, incluyendo este breve texto introductorio,
son sometidos a varias revisiones editoriales y científicas, por lo
que cabría esperar que los abstracts sean fieles representaciones
de lo que el artículo y el estudio realizado. El problema es que,
a veces, no lo son tanto.

A finales de los 90, un grupo de investigadores analizó la existencia
de discrepancias entre los resúmenes de los artículos y su contenido.
El equipo analizó más de 260 artículos (44 piezas por seis revistas científicas de relieve) publicados en 1996 y 1997.

Estudiaron dos formas en las que estos resúmenes podrían resultar
incorrectos, bien por inconsistencias con el cuerpo del artículo,
bien por la omisión de información relevante.

Los resultados mostraban variación en los resultados según la
revista (hallaron que entre el 18% y el 68% de los artículos
presentaban problemas). Concluían, en su propio abstract,
que los datos inconsistentes o ausentes en estos resúmenes
eran “comunes, aún en las revistas médicas de gran circulación”. 
El estudio fue publicado en 1999 la revista JAMA,
una de las publicaciones analizadas en el mismo.

Han pasado 25 años desde la publicación del estudio de la
revista JAMA y casi 30 desde la publicación de algunos de
los artículos analizados. La ciencia ha cambiado mucho
en esos 25 años. Sin embargo algunos estudios posteriores 
indican que este problema persiste.

En 2016, un grupo de investigadores realizó una compilación 
y análisis de los estudios realizados en este campo.
Esta revisión de la literatura, publicada en la revista 
BMC Medical Research Methodology, halló que el
“nivel de inconsistencia” mediano que hallaban estos estudios
estaba en el 39%, aunque la variabilidad era alta: oscilaba
entre un 4% y un 78%.

Puesto que no todos los errores son igualmente severos,
esta revisión se fijó en los estudios que discriminaban
las inconsistencias graves de las más leves.

Observaron que la mediana en este caso era algo más baja,
pero aún considerable, del 19%.

Estudios posteriores, como 
uno publicado este año en la revista
The 
American Journal of Surgery continúan mostrando
la existencia de esta tendencia en la literatura científica.

¿Qué es lo que ocurre entonces? ¿Están falseando sus datos
los científicos? ¿O simplemente estamos siendo testigos
de una importante acumulación de errores? Sabemos que
los resúmenes de los artículos son 
determinantes a la
hora de recibir citas
 de otros artículos académicos y
que 
esta métrica es clave para la evaluación del trabajo
científico para los autores. Pero la publicación misma
de un artículo puede depender a veces de que sus resultados
sean novedosos.

Es por eso que existe un incentivo a poner énfasis en algunos
resultados y matizarlos más tarde. Un resultado no significativo
puede hacer que los editores de la revista o los futuros lectores
pierdan interés por el artículo, independientemente de la calidad real
del estudio. El llamado 
sesgo de publicación 
(que alude a que los estudios con resultados diferentes a cero están
sobrerrepresentados en la literatura científica) es también fruto
de este interés por lo novedoso.

Clickbait académico

Los títulos de los artículos también han sido objeto de escrutinio
en los últimos años. Consciente o inconscientemente,
un titular llamativo puede resultar determinante a la hora de que nos interesemos más o menos por un estudio.

En 2016, 
un estudio publicado en la revista Frontiers in Psychology 
se hacía eco de este fenómeno. El análisis observó cómo la
forma en la que se enunciaban los titulares afectaba
al alcance que alcanzaba el estudio.

Gwilym Lockwood, autor del estudio,
analizó 
más de 2.000 artículos académicos
y observó que los títulos que enunciaban algo en un marco positivo
tenían mejores métricas que la media. Por otra parte también halló
que los trabajos que recurrían a juegos de palabra mostraban un
peor desempeño. Los títulos que contenían preguntas, por su parte,
no se desviaban de la media de forma significativa.

El problema de los abstracts es uno de tantos a las que se
deben enfrentar las editoriales científicas.


Unas editoriales presionadas por escándalos de diversos tipos,
desde los “molinos de artículos científicos
hasta los problemas con las tasas cobradas por la publicación
o el acceso a sus contenidos.

La inteligencia artificial es uno de estos problemas, pero
quizás también una potencial solución. En los últimos meses,
y tras algún que otro escándalo, las editoriales científicas 
han ido integrando las herramientas de inteligencia artificial
en la publicación científica, más allá de la labor que hayan
podido desarrollar estas herramientas en el desarrollo mismo de la investigación.


La inteligencia artificial tiene la capacidad, entre otras cosas,
de generar resúmenes más “objetivos” o de detectar y
corregir posibles errores y discrepancias entre textos y resúmenes.

En Xataka | Así es como la mala ciencia se infiltra en el debate científico internacional: no son solo los grandes escándalos, más de 50.000 artículos cuestionables se incorporan cada año

martes, 11 de febrero de 2025

iniciativa CANGARU: por la unificación de las directrices para el uso de IA en artículos científicos

Publicado en Science
https://www.science.org/content/article/should-researchers-use-ai-write-papers-group-aims-community-driven-standards 


¿Deben los investigadores utilizar la IA para escribir artículos? El grupo aspira a unas normas impulsadas por la comunidad

Según estimaciones recientes, herramientas como ChatGPT podrían utilizarse en entre el 1% y el 5% de los manuscritos.

16 Abr 2024

Por Holly Else



¿Cuándo y cómo deben ayudar a redactar artículos de investigación los programas de inteligencia artificial (IA) que generan textos, como ChatGPT? En los próximos meses, 4000 investigadores de diversas disciplinas y países darán su opinión sobre las directrices que podrían adoptarse ampliamente en la edición académica, que ha estado lidiando con chatbots y otras cuestiones de IA durante el último año y medio. El grupo que está detrás de esta iniciativa quiere sustituir el panorama poco sistemático de las directrices actuales por un único conjunto de normas que represente el consenso de la comunidad investigadora. 


Conocida como CANGARU, la iniciativa es una asociación entre investigadores y editores, entre ellos Elsevier, Springer Nature, Wiley; representantes de las revistas eLife, Cell y The BMJ; así como el organismo industrial Committee on Publication Ethics. Según Giovanni Cacciamani, urólogo de la Universidad del Sur de California que dirige CANGARU, el grupo espera publicar en agosto un conjunto definitivo de directrices que se actualizarán cada año debido a la «rápida evolución de esta tecnología». Las directrices incluirán una lista de las formas en que los autores no deben utilizar los grandes modelos de lenguaje (LLM) que potencian los chatbots y cómo deben revelar otros usos.


Desde que herramientas de IA generativa como ChatGPT se hicieron públicas a finales de 2022, editores e investigadores han debatido estas cuestiones. Algunos afirman que las herramientas pueden ayudar a redactar manuscritos si se utilizan de forma responsable, por ejemplo, en el caso de autores cuya lengua materna no sea el inglés. Otros temen que los estafadores científicos las utilicen para publicar rápidamente trabajos convincentes pero falsos. Según Tanya De Villiers-Botha, filósofa de la Universidad de Stellenbosch, la propensión de los LLM a inventarse cosas, combinada con su relativa fluidez en la escritura y un sistema de revisión por pares sobrecargado, «supone una grave amenaza para la investigación y la publicación científicas».  


Algunas revistas, como Science y Nature, y otros organismos ya han publicado normas sobre cómo pueden utilizar los científicos las herramientas de IA generativa en su trabajo. (El departamento de Noticias de Science es editorialmente independiente.) Esas políticas suelen establecer que las herramientas de IA no pueden ser autoras porque no pueden ser responsables del trabajo. También exigen a los autores que declaren dónde se han utilizado las herramientas.


Pero el nivel de orientación varía. En una política de diciembre de 2023, la Asociación STM, un organismo de comercio editorial, detalló los usos permitidos para la IA generativa y enumera otras áreas sobre las que los editores de revistas deben decidir caso por caso. Pero el anuncio de la Comisión Europea del mes pasado es menos prescriptivo, ya que afirma que los investigadores que utilicen estas herramientas deben hacerlo de forma transparente y seguir siendo responsables de su producción científica.


La variedad de directrices puede confundir a los investigadores. «Lo ideal sería hacer un gran esfuerzo por reunir todas estas normas en una sola que todo el mundo pudiera seguir», afirma Jean-Christophe Bélisle-Pipon, especialista en ética sanitaria de la Universidad Simon Fraser. «Una directriz estandarizada es necesaria y urgente», añade De Villiers-Botha.


Cacciamani dirige CANGARU en una revisión sistemática de la bibliografía pertinente, que servirá de base a las directrices sobre IA. A continuación, un grupo de investigadores, clínicos, informáticos, ingenieros, metodólogos y editores evaluará las directrices.


Pero algunos investigadores temen que la iniciativa no avance lo suficientemente rápido. «El mundo ya ha cambiado significativamente en los últimos 10 meses», afirma Daniel Hook, responsable de la empresa de análisis de datos Digital Science. «La velocidad de avance de la IA generativa no hará sino aumentar».


El número de investigadores que utilizan estas herramientas en sus escritos parece dispararse. Algunos casos de uso no revelado e ilícito de ChatGPT son evidentes. A veces añade a los textos fases reveladoras como «corte de conocimientos en septiembre de 2021». «Son auténticas pistolas humeantes», afirma el informático de la Universidad de Toulouse Guillaume Cabanac, que ha recopilado una lista de más de 70 artículos que llevan el sello de ChatGPT no declarado para el blog Retraction Watch.


Otros han buscado pistas más sutiles sobre el texto LLM. En un preprint publicado en arXiv el 25 de marzo, Andrew Gray, que trabaja en apoyo bibliométrico en el University College de Londres, calcula que algo más del 1% de los artículos publicados en 2023, unos 60.000 en total, contenían una presencia desproporcionada de palabras inusuales que se sabe que están correlacionadas con el texto generado por LLM. Otro análisis, publicado en bioRxiv por Yingfeng Zheng, de la Universidad Sun Yat-sen, y sus colegas el 26 de marzo, investigó 45.000 preprints antes y después de que ChatGPT estuviera disponible y calculó que el 5% de estos últimos incluían texto generado por IA.


Philip Shapira, que estudia la gobernanza de las tecnologías emergentes en la Universidad de Manchester, afirma que las cifras podrían estar subestimadas. «Ahora es fácil encontrar en Internet recomendaciones y herramientas para 'eliminar' términos y frases comunes generados por ChatGPT», afirma. Y es probable que las herramientas de IA mejoren su estilo de redacción en el futuro, lo que dificultará aún más su detección. 


Una vez elaboradas las directrices sobre IA, el siguiente paso será asegurarse de que los autores las cumplen, afirma Sabine Kleinert, subdirectora de la revista médica The Lancet, que participa en CANGARU. Esto puede hacerse pidiendo a los autores que declaren el uso de la IA cuando presenten sus trabajos. Para frenar el uso de la IA también se requerirá «la experiencia de los editores... así como una sólida revisión por pares y políticas adicionales de integridad y ética de la investigación», añade Kleinert.


En última instancia, según Bélisle-Pipon, el éxito de las directrices dependerá también de que las instituciones y los organismos que las conceden incentiven el cumplimiento de las políticas y penalicen a los investigadores que no las respeten. «Todos sabemos que el quid de la cuestión es cómo evalúan a los investigadores los financiadores y los comités de contratación, titularidad y promoción».



//////////////////

Should researchers use AI to write papers? Group aims for community-driven standards Tools such as ChatGPT may be used for 1% to 5% of manuscripts, recent estimates suggest

16 Apr 2024



When and how should text-generating artificial intelligence (AI) programs such as ChatGPT help write research papers? In the coming months, 4000 researchers from a variety of disciplines and countries will weigh in on guidelines that could be adopted widely across academic publishing, which has been grappling with chatbots and other AI issues for the past year and a half. The group behind the effort wants to replace the piecemeal landscape of current guidelines with a single set of standards that represents a consensus of the research community.  

Known as CANGARU, the initiative is a partnership between researchers and publishers including Elsevier, Springer Nature, Wiley; representatives from journals eLife, Cell, and The BMJ; as well as industry body the Committee on Publication Ethics. The group hopes to release a final set of guidelines by August, which will be updated every year because of the “fast evolving nature of this technology,” says Giovanni Cacciamani, a urologist at the University of Southern California who leads CANGARU. The guidelines will include a list of ways authors should not use the large language models (LLMs) that power chatbots and how they should disclose other uses.

Since generative AI tools such as ChatGPT became public in late 2022, publishers and researchers have debated these issues. Some say the tools can help draft manuscripts if used responsibly—by authors who do not have English as their first language, for example. Others fear scientific fraudsters will use them to publish convincing but fake work quickly. LLMs’ propensity to make things up, combined with their relative fluency in writing and an overburdened peer-review system, “poses a grave threat to scientific research and publishing,” says Tanya De Villiers-Botha, a philosopher at Stellenbosch University.  

Some journals, including Science and Nature, and other bodies have already released rules about how scientists can use generative AI tools in their work. (Science’s News department is editorially independent.) Those policies often state that AI tools cannot be authors because they cannot be accountable for the work. They also require authors to declare where the tools have been used.

But the level of guidance varies. In a December 2023 policy, the STM Association, a publishing trade body, spelled out allowed uses for generative AI and lists other areas on which journal editors should decide case by case. But last month’s announcement from the European Commission is less prescriptive, stating that researchers using these tools should do so transparently and remain responsible for their scientific output.  

The variety of guidelines could be confusing for researchers. “Ideally there should be a big effort to bring all these rules together into one big set that everyone can follow,” says Jean-Christophe Bélisle-Pipon, a health ethicist at Simon Fraser University. “A standardized guideline is both necessary and urgent,” De Villiers-Botha adds.

Cacciamani is leading CANGARU in a systematic review of the relevant literature, which will inform the AI guidelines. A panel of researchers, clinicians, computer scientists, engineers, methodologists, and editors will then evaluate the guidelines.  

But some researchers fear the initiative is not moving fast enough. “Already the world has changed significantly in the last 10 months,” says Daniel Hook, head of data analytics firm Digital Science. “The speed of progress of generative AI will only increase.”

The number of researchers using the tools in their writing appears to be soaring. Some cases of undisclosed, illicit ChatGPT use are obvious. It sometimes adds to text telltale phases such as “knowledge cutoff in September 2021.” “These are real smoking guns,” says University of Toulouse computer scientist Guillaume Cabanac, who compiled a list of more than 70 articles that bear the hallmarks of undeclared ChatGPT for the blog Retraction Watch

Others have looked for subtler clues to LLM text. In a preprint posted on arXiv on 25 March, Andrew Gray, who works in bibliometric support at University College London, estimates that just over 1% of articles published in 2023, about 60,000 in total, contained a disproportionate occurrence of unusual words known to be correlated with LLM-generated text. Another analysis, posted on bioRxiv by Yingfeng Zheng at Sun Yat-sen University and colleagues on 26 March, investigated 45,000 preprints before and after ChatGPT became available and estimated 5% of the latter include AI-generated text.

Philip Shapira, who studies the governance of emerging technologies at the University of Manchester, says the numbers could be underestimates. “It is now easy to go online to find recommendations and tools to ‘weed out’ common ChatGPT-generated terms and phrases,” he says. And AI tools will likely improve their writing style in the future, making it more challenging to spot. 

Once AI guidelines are drawn up, the next step will be to ensure that authors stick to them, says Sabine Kleinert, deputy editor of medical journal The Lancet, which is involved in CANGARU. This can be done by asking authors to declare the use of AI when they submit papers. Reining in AI use will also require “the expertise of editors … as well as robust peer review and additional research integrity and ethical polices,” Kleinert adds.

Ultimately, Bélisle-Pipon says, the success of the guidelines will also depend on institutions and granting agencies to incentivize adherence to policies—and to penalize researchers who don’t. “We all know that the crux of the matter is how funders and recruitment, tenure, and promotion committees evaluate researchers.”

**************

ALEMANIA ¿Sacará provecho de la fuga de cerebros estadunidenses?

Publicado en  Deutsche Welle https://www.dw.com/es/estimados-investigadores-estadounidenses-bienvenidos-a-alemania/a-72049470 Estimados inve...