Mostrando entradas con la etiqueta Redacción. Mostrar todas las entradas
Mostrando entradas con la etiqueta Redacción. Mostrar todas las entradas

martes, 11 de febrero de 2025

iniciativa CANGARU: por la unificación de las directrices para el uso de IA en artículos científicos

Publicado en Science
https://www.science.org/content/article/should-researchers-use-ai-write-papers-group-aims-community-driven-standards 


¿Deben los investigadores utilizar la IA para escribir artículos? El grupo aspira a unas normas impulsadas por la comunidad

Según estimaciones recientes, herramientas como ChatGPT podrían utilizarse en entre el 1% y el 5% de los manuscritos.

16 Abr 2024

Por Holly Else



¿Cuándo y cómo deben ayudar a redactar artículos de investigación los programas de inteligencia artificial (IA) que generan textos, como ChatGPT? En los próximos meses, 4000 investigadores de diversas disciplinas y países darán su opinión sobre las directrices que podrían adoptarse ampliamente en la edición académica, que ha estado lidiando con chatbots y otras cuestiones de IA durante el último año y medio. El grupo que está detrás de esta iniciativa quiere sustituir el panorama poco sistemático de las directrices actuales por un único conjunto de normas que represente el consenso de la comunidad investigadora. 


Conocida como CANGARU, la iniciativa es una asociación entre investigadores y editores, entre ellos Elsevier, Springer Nature, Wiley; representantes de las revistas eLife, Cell y The BMJ; así como el organismo industrial Committee on Publication Ethics. Según Giovanni Cacciamani, urólogo de la Universidad del Sur de California que dirige CANGARU, el grupo espera publicar en agosto un conjunto definitivo de directrices que se actualizarán cada año debido a la «rápida evolución de esta tecnología». Las directrices incluirán una lista de las formas en que los autores no deben utilizar los grandes modelos de lenguaje (LLM) que potencian los chatbots y cómo deben revelar otros usos.


Desde que herramientas de IA generativa como ChatGPT se hicieron públicas a finales de 2022, editores e investigadores han debatido estas cuestiones. Algunos afirman que las herramientas pueden ayudar a redactar manuscritos si se utilizan de forma responsable, por ejemplo, en el caso de autores cuya lengua materna no sea el inglés. Otros temen que los estafadores científicos las utilicen para publicar rápidamente trabajos convincentes pero falsos. Según Tanya De Villiers-Botha, filósofa de la Universidad de Stellenbosch, la propensión de los LLM a inventarse cosas, combinada con su relativa fluidez en la escritura y un sistema de revisión por pares sobrecargado, «supone una grave amenaza para la investigación y la publicación científicas».  


Algunas revistas, como Science y Nature, y otros organismos ya han publicado normas sobre cómo pueden utilizar los científicos las herramientas de IA generativa en su trabajo. (El departamento de Noticias de Science es editorialmente independiente.) Esas políticas suelen establecer que las herramientas de IA no pueden ser autoras porque no pueden ser responsables del trabajo. También exigen a los autores que declaren dónde se han utilizado las herramientas.


Pero el nivel de orientación varía. En una política de diciembre de 2023, la Asociación STM, un organismo de comercio editorial, detalló los usos permitidos para la IA generativa y enumera otras áreas sobre las que los editores de revistas deben decidir caso por caso. Pero el anuncio de la Comisión Europea del mes pasado es menos prescriptivo, ya que afirma que los investigadores que utilicen estas herramientas deben hacerlo de forma transparente y seguir siendo responsables de su producción científica.


La variedad de directrices puede confundir a los investigadores. «Lo ideal sería hacer un gran esfuerzo por reunir todas estas normas en una sola que todo el mundo pudiera seguir», afirma Jean-Christophe Bélisle-Pipon, especialista en ética sanitaria de la Universidad Simon Fraser. «Una directriz estandarizada es necesaria y urgente», añade De Villiers-Botha.


Cacciamani dirige CANGARU en una revisión sistemática de la bibliografía pertinente, que servirá de base a las directrices sobre IA. A continuación, un grupo de investigadores, clínicos, informáticos, ingenieros, metodólogos y editores evaluará las directrices.


Pero algunos investigadores temen que la iniciativa no avance lo suficientemente rápido. «El mundo ya ha cambiado significativamente en los últimos 10 meses», afirma Daniel Hook, responsable de la empresa de análisis de datos Digital Science. «La velocidad de avance de la IA generativa no hará sino aumentar».


El número de investigadores que utilizan estas herramientas en sus escritos parece dispararse. Algunos casos de uso no revelado e ilícito de ChatGPT son evidentes. A veces añade a los textos fases reveladoras como «corte de conocimientos en septiembre de 2021». «Son auténticas pistolas humeantes», afirma el informático de la Universidad de Toulouse Guillaume Cabanac, que ha recopilado una lista de más de 70 artículos que llevan el sello de ChatGPT no declarado para el blog Retraction Watch.


Otros han buscado pistas más sutiles sobre el texto LLM. En un preprint publicado en arXiv el 25 de marzo, Andrew Gray, que trabaja en apoyo bibliométrico en el University College de Londres, calcula que algo más del 1% de los artículos publicados en 2023, unos 60.000 en total, contenían una presencia desproporcionada de palabras inusuales que se sabe que están correlacionadas con el texto generado por LLM. Otro análisis, publicado en bioRxiv por Yingfeng Zheng, de la Universidad Sun Yat-sen, y sus colegas el 26 de marzo, investigó 45.000 preprints antes y después de que ChatGPT estuviera disponible y calculó que el 5% de estos últimos incluían texto generado por IA.


Philip Shapira, que estudia la gobernanza de las tecnologías emergentes en la Universidad de Manchester, afirma que las cifras podrían estar subestimadas. «Ahora es fácil encontrar en Internet recomendaciones y herramientas para 'eliminar' términos y frases comunes generados por ChatGPT», afirma. Y es probable que las herramientas de IA mejoren su estilo de redacción en el futuro, lo que dificultará aún más su detección. 


Una vez elaboradas las directrices sobre IA, el siguiente paso será asegurarse de que los autores las cumplen, afirma Sabine Kleinert, subdirectora de la revista médica The Lancet, que participa en CANGARU. Esto puede hacerse pidiendo a los autores que declaren el uso de la IA cuando presenten sus trabajos. Para frenar el uso de la IA también se requerirá «la experiencia de los editores... así como una sólida revisión por pares y políticas adicionales de integridad y ética de la investigación», añade Kleinert.


En última instancia, según Bélisle-Pipon, el éxito de las directrices dependerá también de que las instituciones y los organismos que las conceden incentiven el cumplimiento de las políticas y penalicen a los investigadores que no las respeten. «Todos sabemos que el quid de la cuestión es cómo evalúan a los investigadores los financiadores y los comités de contratación, titularidad y promoción».



//////////////////

Should researchers use AI to write papers? Group aims for community-driven standards Tools such as ChatGPT may be used for 1% to 5% of manuscripts, recent estimates suggest

16 Apr 2024



When and how should text-generating artificial intelligence (AI) programs such as ChatGPT help write research papers? In the coming months, 4000 researchers from a variety of disciplines and countries will weigh in on guidelines that could be adopted widely across academic publishing, which has been grappling with chatbots and other AI issues for the past year and a half. The group behind the effort wants to replace the piecemeal landscape of current guidelines with a single set of standards that represents a consensus of the research community.  

Known as CANGARU, the initiative is a partnership between researchers and publishers including Elsevier, Springer Nature, Wiley; representatives from journals eLife, Cell, and The BMJ; as well as industry body the Committee on Publication Ethics. The group hopes to release a final set of guidelines by August, which will be updated every year because of the “fast evolving nature of this technology,” says Giovanni Cacciamani, a urologist at the University of Southern California who leads CANGARU. The guidelines will include a list of ways authors should not use the large language models (LLMs) that power chatbots and how they should disclose other uses.

Since generative AI tools such as ChatGPT became public in late 2022, publishers and researchers have debated these issues. Some say the tools can help draft manuscripts if used responsibly—by authors who do not have English as their first language, for example. Others fear scientific fraudsters will use them to publish convincing but fake work quickly. LLMs’ propensity to make things up, combined with their relative fluency in writing and an overburdened peer-review system, “poses a grave threat to scientific research and publishing,” says Tanya De Villiers-Botha, a philosopher at Stellenbosch University.  

Some journals, including Science and Nature, and other bodies have already released rules about how scientists can use generative AI tools in their work. (Science’s News department is editorially independent.) Those policies often state that AI tools cannot be authors because they cannot be accountable for the work. They also require authors to declare where the tools have been used.

But the level of guidance varies. In a December 2023 policy, the STM Association, a publishing trade body, spelled out allowed uses for generative AI and lists other areas on which journal editors should decide case by case. But last month’s announcement from the European Commission is less prescriptive, stating that researchers using these tools should do so transparently and remain responsible for their scientific output.  

The variety of guidelines could be confusing for researchers. “Ideally there should be a big effort to bring all these rules together into one big set that everyone can follow,” says Jean-Christophe Bélisle-Pipon, a health ethicist at Simon Fraser University. “A standardized guideline is both necessary and urgent,” De Villiers-Botha adds.

Cacciamani is leading CANGARU in a systematic review of the relevant literature, which will inform the AI guidelines. A panel of researchers, clinicians, computer scientists, engineers, methodologists, and editors will then evaluate the guidelines.  

But some researchers fear the initiative is not moving fast enough. “Already the world has changed significantly in the last 10 months,” says Daniel Hook, head of data analytics firm Digital Science. “The speed of progress of generative AI will only increase.”

The number of researchers using the tools in their writing appears to be soaring. Some cases of undisclosed, illicit ChatGPT use are obvious. It sometimes adds to text telltale phases such as “knowledge cutoff in September 2021.” “These are real smoking guns,” says University of Toulouse computer scientist Guillaume Cabanac, who compiled a list of more than 70 articles that bear the hallmarks of undeclared ChatGPT for the blog Retraction Watch

Others have looked for subtler clues to LLM text. In a preprint posted on arXiv on 25 March, Andrew Gray, who works in bibliometric support at University College London, estimates that just over 1% of articles published in 2023, about 60,000 in total, contained a disproportionate occurrence of unusual words known to be correlated with LLM-generated text. Another analysis, posted on bioRxiv by Yingfeng Zheng at Sun Yat-sen University and colleagues on 26 March, investigated 45,000 preprints before and after ChatGPT became available and estimated 5% of the latter include AI-generated text.

Philip Shapira, who studies the governance of emerging technologies at the University of Manchester, says the numbers could be underestimates. “It is now easy to go online to find recommendations and tools to ‘weed out’ common ChatGPT-generated terms and phrases,” he says. And AI tools will likely improve their writing style in the future, making it more challenging to spot. 

Once AI guidelines are drawn up, the next step will be to ensure that authors stick to them, says Sabine Kleinert, deputy editor of medical journal The Lancet, which is involved in CANGARU. This can be done by asking authors to declare the use of AI when they submit papers. Reining in AI use will also require “the expertise of editors … as well as robust peer review and additional research integrity and ethical polices,” Kleinert adds.

Ultimately, Bélisle-Pipon says, the success of the guidelines will also depend on institutions and granting agencies to incentivize adherence to policies—and to penalize researchers who don’t. “We all know that the crux of the matter is how funders and recruitment, tenure, and promotion committees evaluate researchers.”

**************

martes, 28 de enero de 2025

Reporte artículos sospechosos por uso de IA como Autor en Academ-AI

 https://www.academ-ai.info/



Acerca de

Academ-AI documenta los efectos adversos de la inteligencia artificial (IA) en el mundo académico, en particular los casos sospechosos de uso de IA como autor de investigaciones sin la debida declaración.


Los artículos que aparecen en este sitio se han identificado a partir de frases que sugieren claramente el uso de IA (resaltadas en cada pasaje citado). Si cree que un artículo se ha incluido erróneamente, comuníquemelo a acai@academ-ai.info.


Si sospecha del uso de IA en un artículo de investigación publicado, póngase en contacto con:


  • La cita (en cualquier estilo); por favor, incluya una URL o DOI si es posible


  • El pasaje o pasajes que parecen generados por IA


  • Su nombre, si desea que se mencione su contribución.


Por el momento, sólo estoy documentando artículos de revistas y ponencias o actas de conferencias. Los libros, capítulos de libros, preprints, entradas de blog y otros medios quedan fuera del alcance, al menos por el momento.


Qué buscar


Las contribuciones de un chatbot suelen identificarse por el uso de frases clave, como:


A partir de mi última actualización de conocimientos...


Como modelo lingüístico de IA...


Las respuestas de los chatbot también pueden identificarse por su estilo conversacional, que no encaja con la prosa académica. Algunos elementos del estilo chatbot son


  • Uso liberal de pronombres en primera persona del singular


  • Uso de marcadores del discurso, como «ciertamente».


Como consecuencia de los intentos de los desarrolladores por evitar resultados perjudiciales, los chatbots suelen ser verbosamente conservadores, generando múltiples frases que explican por qué no pueden hacer lo que se les pide. Algunos ejemplos son:


  • Explicar que no tienen acceso a determinados datos

  • Remitir al usuario a expertos en el campo correspondiente

  • Ofrecer temas alternativos que el bot podría tratar


Metadatos


Las publicaciones se citan utilizando los metadatos proporcionados por el editor, incluso cuando son inverosímiles. Por ejemplo, Narayanan (2014) hace referencia a una «actualización de conocimientos en enero de 2022» a pesar de que supuestamente se publicó ocho años antes.1 Dado que el propósito de Academ-AI es poner de relieve los descuidos editoriales, no se intentará resolver estos errores.


Categorías


Asigno una o más categorías temáticas, basadas en el nivel superior del sistema de Clasificación de la Biblioteca del Congreso (LCC) [Library of Congress Classification], a cada artículo enumerado según mi mejor criterio.


  • obras generales

  • filosofía, psicología y religión

  • ciencias auxiliares de la historia

  • historia universal

  • historia de las Américas

  • historia local de América

  • geografía, antropología y ocio

  • ciencias sociales

  • ciencias políticas

  • derecho

  • educación

  • música

  • bellas artes

  • lengua y literatura

  • ciencias

  • medicina

  • agricultura

  • tecnología

  • ciencia militar

  • ciencias navales

  • biblioteconomía y ciencias de la información  


Tipos de publicación

Cada artículo se clasifica como

  • Revista-artículos de revista

  • Conferencia-ponencias y actas de conferencias

Cambios posteriores a la publicación

Cuando se ha publicado una fe de erratas (retractación, corrección de errores u otra corrección editorial) relacionada con el uso no declarado de IA, el artículo se etiqueta con el tipo de fe de erratas y la fecha de su publicación. Ocasionalmente, los editores parecen haber corregido retroactivamente errores inducidos por el LLM sin informar a los lectores. Estos casos se marcan como «revisión furtiva». Dado que a menudo es imposible determinar con exactitud cuándo se produjo una revisión furtiva, no se proporciona ninguna fecha para las mismas. Las erratas que no se refieren al uso no declarado de la IA no figuran en la lista.

Indización

Los artículos publicados en revistas de las que se sabe que están incluidas en índices de uso generalizado, como Web of Science, se etiquetan como tales. Estas etiquetas son un trabajo en curso. Sin embargo, que yo sepa, todos los artículos indexados en las siguientes bases de datos han sido etiquetados como tales:

  • Directorio de revistas de acceso abierto (DOAJ)

  • Dimensiones

  • Medline

  • PubMed Central

  • Scopus

  • Web of Science

ISSNs

Los ISSN de todas las revistas que disponen de ellos se incluyen en los metadatos de cada artículo. Todos los ISSN se han validado utilizando el portal del ISSN; en los casos en que se ha comprobado que los ISSN no son válidos, no se han notificado, son provisionales o están registrados en una revista diferente, este hallazgo también se hace constar en los metadatos del artículo.

ISBNs

Los ISBN de todas las ponencias que los tienen se incluyen en los metadatos de cada ponencia.

Proyectos similares

Otros investigadores, en particular el Dr. Guillaume Cabanac (Institut de Recherche en Informatique de Toulouse), han recopilado ejemplos de IA no declarada. La lista de tales artículos en Retraction Watch, basada en la estrategia de búsqueda del Dr. Cabanac, se utilizó para identificar muchos de los artículos que figuran en este sitio web.

Sobre mí

Soy Alex Glynn, MA, Instructor de Alfabetización en Investigación y Comunicaciones en la Biblioteca de Ciencias de la Salud Kornhauser, Universidad de Louisville, Louisville, KY, Estados Unidos de América. Anteriormente trabajé durante tres años en la Facultad de Medicina de la Universidad, en la División de Enfermedades Infecciosas, donde fui nombrado Editor Jefe de la Revista de Infecciones Respiratorias de la División hasta mi marcha en agosto de 2023.

Mi trabajo se ha publicado en Accountability in Research, Intelligent Pharmacy, Journal of Cardiothoracic and Vascular Anesthesia, y otros. He dado conferencias sobre IA, así como sobre otros temas, en la Universidad de Louisville y he formado parte de varios comités directivos de IA.




***********************

About

Academ-AI documents the adverse effects of artificial intelligence (AI) in academia, particularly suspected instances of AI being used to author research without appropriate declaration.

The articles listed on this site have been identified based on phrases that strongly suggest AI use (highlighted in each quoted passage). If you believe that an article has been wrongly included, please let me know at acai@academ-ai.info.

If you suspect the use of AI in a published research article, please reach out with: 

  • The citation (in any style); please include a URL or DOI if possible

  • The passage(s) that appear to be AI-generated

  • Your name if you wish to be credited for your contribution

At present, I am documenting journal articles and conference papers/proceedings only. Books, book chapters, preprints, blog posts, and other media are out of scope at least for the time being.

What to look for

The contributions of a chatbot can often be identified by the use of key phrases, such as:

As of my last knowledge update…

As an AI language model… 

Chatbot responses can also be identified by their conversational style, which does not fit in with academic prose. Elements of chatbot style include:

  • Liberal use of first-person singular pronouns

  • Use of discourse markers, such as “certainly”

As a consequence of the developers’ attempts to prevent harmful output, chatbots are often verbosely conservative, generating multiple sentences explaining why they cannot do as asked. Examples include:   

  • Explaining that they have no access to certain data

  • Referring the user to experts in the relevant field

  • Offering alternative subject matter that the bot could discuss

Metadata

Publications are cited using the metadata provided by the publisher even where implausible. For example, Narayanan (2014) refers to a “knowledge update in January 2022” despite alleged publication eight years prior.1 Since the purpose of Academ-AI is to highlight publishing oversights, no attempt will be made to resolve these errors.

Categories  

I assign one or more subject categories, based on the top level of the Library of Congress Classification (LCC) system, to each article listed according to my own best judgement.

  • general works

  • philosophy, psychology, and religion

  • auxiliary sciences of history

  • world history

  • history of the Americas

  • local history of the Americas

  • geography, anthropology, and recreation

  • social sciences

  • political sciencce

  • law

  • education

  • music

  • fine arts

  • language and literature

  • science

  • medicine

  • agriculture

  • technology

  • military science

  • naval science

  • library and information science 

Publication types

Each article is classified as:

  • Journal—journal articles

  • Conference—conference papers and proceedings

Post-publication changes

Where an erratum (retraction, corrigendum, or other editorial correction) related to the undeclared use of AI has been published, the article is labeled with type of erratum and the date of its publication. Occasionally, publishers appear to have retroactively corrected LLM-induced errors without informing readers. These instances are marked as “stealth revision.” Since determining when exactly a stealth revision occurred is often impossible, no date is provided for stealth revisions. Errata that do not concern the undeclared use of AI are not listed.  

Indexing

Articles published in journals known to be included in widely used indices, such as Web of Science, are labeled as such. These labels are a work-in-progress. However, to my knowledge, every article indexed in the following databases has been labeled as such:

  • Directory of Open Access Journal (DOAJ)

  • Dimensions

  • Medline

  • PubMed Central

  • Scopus

  • Web of Science

ISSNs

The ISSNs of all journals that have them are included in each article’s metadata. All ISSNs have been validated using the ISSN portal; where ISSNs were found to be invalid, unreported, provisional, or registered to a different journal, this finding is also noted in the article metadata.  

ISBNs

The ISBNs of all conference papers that have them are included in each paper’s metadata.

Similar projects

Other researchers, notably Dr. Guillaume Cabanac (Institut de Recherche en Informatique de Toulouse), have compiled examples of undeclared AI. The list of such papers on Retraction Watch, based on Dr. Cabanac’s search strategy, was used to identify many of the items listed on this website.

About me

I am Alex Glynn, MA, Research Literacy and Communications Instructor at the Kornhauser Health Sciences Library, University of Louisville, Louisville, KY, United States of America. I previously worked for three years at the University’s School of Medicine in the Division of Infectious Diseases, where I was appointed Managing Editor for the Division’s Journal of Respiratory Infections until my departure in August 2023. 

My work has been published in Accountability in Research, Intelligent Pharmacy, the Journal of Cardiothoracic and Vascular Anesthesia, and others. I have lectured on AI, as well as other topics, at the University of Louisville and served on multiple AI steering committees.

PAÍSES BAJOS: universidades van a la huelga por los recortes de austeridad

Publicado en University World News https://www.universityworldnews.com/post.php?story=20250306130546973 Las universidades planean una huelga...