miércoles, 6 de noviembre de 2024

¿Se deben citar los Chabots? (Parte 2): NO, no se debe legitimar a una herramienta que no fue hecha para discernir lo verdadero

 Publicado en The Scholarly Kitchen

https://scholarlykitchen.sspnet.org/2024/06/20/the-case-for-not-citing-chatbots-as-information-sources-part-ii/ 


Guest Post - El caso de no citar chatbots como fuentes de información (Parte II)


Por Leticia Antunes Nogueira, Jan Ove Rein

20 de junio de 2024



Nota del editor: El artículo de hoy ha sido escrito por Leticia Antunes Nogueira y Jan Ove Rein, ambos de la Universidad Noruega de Ciencia y Tecnología (NTNU). Leticia es jefa de proyecto de inteligencia artificial en la biblioteca de la universidad. Jan Ove es Bibliotecario de Investigación Senior y actúa como especialista en medicina, proporcionando enseñanza, asesoramiento y apoyo a la investigación para el personal y los estudiantes de la Facultad de Medicina y Ciencias de la Salud


En la primera parte de Chatbots: ¿Citar o no citar? (Part I of Chatbots: To Cite Or Not To Cite?) nuestros autores invitados exploraron el contexto de las citas y las fuentes de información y cómo encaja en él la IA Generativa. Hoy continúan desarrollando sus argumentos hacia una conclusión.


En la parte I exploramos las políticas de las editoriales sobre IA generativa, que en general ofrecen recomendaciones claras para no aceptar chatbots como (co)autores, pero que dejan un tanto vagas las orientaciones sobre la cuestión de citar chatbots como fuentes de información. También exploramos las razones para citar otros trabajos y la observación de que las opiniones difieren sobre si las herramientas de IA generativa deben considerarse fuentes de información.


¿Citar o no citar?


En este dilema y en medio de la incertidumbre sobre qué prácticas y normas se aplican, nuestra postura es que los chatbots no deben aceptarse como fuentes y, por tanto, no deben citarse como tales. Se trata de una cuestión diferente a la de etiquetar explícitamente el contenido generado por IA. Un texto generado íntegramente por IA generativa debería marcarse como tal en aras de la confianza y la transparencia. Pero la cuestión de los autores que citan chatbots como fuentes de información es diferente. Esto no significa que no deba reconocerse el uso que los autores hacen de la IA generativa, sino todo lo contrario. 

Al igual que las declaraciones relativas a conflictos de intereses, consideramos útil declarar si los autores han utilizado IA generativa en su trabajo y de qué manera. Hay muchos usos legítimos de la IA generativa, y la divulgación puede contribuir a la transparencia y servir de fuente de inspiración sobre cómo utilizar estas herramientas innovadoras en beneficio de la investigación académica, y no en su detrimento. Este enfoque, sin embargo, no está exento de dificultades, dado que la propia definición de lo que constituye IA generativa puede ser borrosa, así como el grado de conocimiento que los usuarios tienen de ella.

Reconocemos la preocupación por la legítima atribución de ideas que no son propias, mantenemos que los inconvenientes de citar un chatbot son mayores que los beneficios de la atribución. Dos razones importantes para esta posición, como discutimos en la parte I, se refieren al hecho de que los resultados del chatbot no pueden ser reproducidos, ni rastreados como fuentes tradicionales. No obstante, además de esta objeción común para aceptar los chatbots como fuentes, ofrecemos algunos argumentos más.

Citar chatbots entra en conflicto con las políticas de autor


En primer lugar, si el mundo académico está de acuerdo en que los chatbots no pueden ser reconocidos como autores, citarlos como fuentes socava esta posición. Hacerlo legitima incluso indirectamente a los chatbots y a sus desarrolladores como autores. Por ejemplo, si escribimos que «la corteza terrestre es un vasto museo» (Darwin C. On the origin of species. Minneapolis, MN: First Avenue Editions; 2018, p. 162.), queda claro para el lector que compruebe nuestras referencias que Darwin es el autor de esta afirmación, que puede encontrar cualquiera que consulte la página 162 de la edición concreta a la que señalamos. 


Citar chatbots crea un precedente que socava la responsabilidad de los autores. 

Si en lugar de Darwin, la cita dijera «OpenAI», estaríamos aceptando implícitamente que OpenAI es responsable de hacer esa afirmación. Es cierto que los académicos citan entidades no humanas con regularidad. Nosotros mismos lo hacemos en la parte I, cuando citamos las políticas de las editoriales sobre IA generativa. Pero no es lo mismo citar un informe de las Naciones Unidas, por ejemplo, que un texto sintético de un desarrollador de IA. Las organizaciones están compuestas por personas y, por tanto, tienen una responsabilidad que los desarrolladores de chatbots no pueden asumir.

Citar chatbots contamina el entorno informativo

Insistir en citar chatbots como fuentes promueve una especie de contaminación en los ecosistemas de información. Esto se debe a que no solo se compromete la confianza de la gente en las fuentes, sino que además, si los propios datos utilizados para entrenar a los LLM son generados por IA (es decir, textos de Internet, textos académicos y otros), la calidad de los modelos se erosiona. Esto se ha visto, por ejemplo, en los llamamientos a mantener Wikipedia, cuyo contenido de licencia libre ha sido crucial para el entrenamiento de los LLM, como un «proyecto centrado en el ser humano». Además, el uso acrítico de los chatbots conlleva riesgos epistémicos; es decir, los chatbots no «saben» la respuesta a ninguna pregunta, sino que predicen una secuencia de palabras que podrían responder a la pregunta. Cuando asumimos estos resultados y no sólo les atribuimos el valor de información y conocimiento, sino que además legitimamos el LLM como fuente, creamos una profecía autocumplida que refuerza la predicción del modelo como realidad de facto. Esto sería preocupante en cualquier circunstancia, pero seis años después de que «desinformación» se convirtiera en la palabra del año, y de que términos como «cámara de eco», «burbuja de filtros» y «posverdad» se hayan convertido en lenguaje común, la cuestión de la integridad de las fuentes adquiere una nueva dimensión.

Los chatbots no se han diseñado para ser máquinas de la verdad

Los chatbots no se han diseñado como herramientas con fines informativos, aunque pueden funcionar muy bien en tareas relacionadas principalmente con la comunicación. La incertidumbre sobre la calidad de sus resultados se debe a su finalidad y estructura, no a su grado de madurez tecnológica. Los LLM son probabilísticos por diseño, lo que significa que las falsedades son -como dirían los de la cultura tecnológica- una característica, no un error. Las alucinaciones son fáciles de entender una vez que reconocemos que los chatbots funcionan calculando la probabilidad de las cadenas lingüísticas que vienen, dadas las entradas precedentes, los datos de entrenamiento y los parámetros del modelo. Mirando bajo el capó de los chatbots y apreciando cómo funcionan, nos damos cuenta de sus usos y limitaciones. Se basan en patrones de uso del lenguaje, no en información.

Una vez que los chatbots se acoplan a bases de datos fiables para generar texto basado en datos seleccionados y conservados, es posible aumentar la confianza depositada en sus resultados, no como fuentes, sino como medios para extraer información de un gran conjunto de datos. En este tipo de uso, los chatbots no sirven como fuente de información en sí mismos, sino que apuntan a fuentes en su conjunto de datos. Al mismo tiempo, este tipo de herramienta plantea otros retos, como saber si las fuentes son auténticas y pertinentes, así como hasta qué punto el texto se ha tomado textualmente o se ha parafraseado. Este tipo de aplicación ya puede verse en herramientas como Microsoft Copilot en Bing (para uso general) y Scopus AI, Elicit y Scite (para uso académico), por citar algunas, aunque estas herramientas tampoco están exentas de críticas.

Crear normas que no se pueden hacer cumplir envía una señal equivocada

Prescribir que los autores citen chatbots como fuentes no significa que vayan a hacerlo, sobre todo porque las posibilidades de identificarlo son escasas. Las herramientas habituales de comprobación de plagio no detectan el texto sintético, y las herramientas de detección de IA son muy poco fiables. No podemos suponer con un grado adecuado de certeza si un texto es auténtico o sintético, basándonos únicamente en nuestras opiniones sobre el texto. Por tanto, si citar chatbots como fuentes de información se convirtiera en la norma aceptada, tendríamos una situación en la que las normas sociales dictarían una práctica que puede ignorarse sin mayores consecuencias. En nuestra opinión, el hecho de que la APA (y remarcamos, sólo la APA) haya propuesto un marco para citar chatbots, no debería significar que se espere o se obligue a aquellos que siguen el estilo APA a hacerlo. La APA deja muy claro que su propuesta se basa en la estructura de citación de software y no en la comunicación personal, así como en la necesidad de documentar el uso de IA generativa de otras formas en un trabajo.

Otro riesgo de prescribir que se citen los chatbots es que esta práctica legitime el tipo de uso de baja competencia en el que resulta aceptable tomar texto textual de los LLM, siempre que se incluya una cita. Esto sería lamentable, ya que de hecho hay usos más productivos de estas herramientas que apoyan el aprendizaje y la investigación en lugar de socavarlos. El mundo académico saldría más beneficiado si invirtiera en alfabetización y educación en IA.

Habrá casos en los que las ideas irán sin atribución y algunos autores lo harán y utilizarán chatbots de forma inapropiada. Cuando esto ocurra, será casi imposible identificarlos y reprenderlos. Sin embargo, no se trata de un problema que pueda resolverse citando a los chatbots. Además, el hecho de que se produzcan prácticas académicas menos que ideales no es algo que haya surgido por primera vez con la introducción de los chatbots. Sería difícil encontrar a alguien que dijera que está bien, por ejemplo, citar un artículo que no se ha leído. Es una práctica desafortunada y problemática y, sin embargo, ni es una prohibición concreta ni es posible controlarla. La forma en que funcionan nuestras normas actuales a este respecto implica una especie de presión entre iguales que desalienta el comportamiento problemático. En otras palabras, si se cita sin haber leído, lo más probable es que se cite erróneamente, lo que podría dar lugar a una exposición negativa y a que se retractara su investigación.

Necesitamos un enfoque similar para los chatbots: normas socioculturales que prescriban los usos apropiados e inapropiados de las herramientas, aunque aplicar estas normas como reglas concretas sea poco práctico. Las normas socioculturales son frágiles cuando surgen por primera vez, pero las que perduran en el tiempo acaban arraigando profundamente en la cultura institucional. Este planteamiento se queda corto si lo que se pretende es garantizar que nadie actúe nunca de esta manera, pero sirve para establecer un conjunto claro de expectativas sobre prácticas y comportamientos adecuados e inadecuados.

Reflexiones finales

Los retos que la IA generativa plantea a la integridad académica no surgen de la obsolescencia de los valores académicos ante un trabajo intelectual cada vez más automatizado, sino de la falta de normas establecidas para hacer frente a estos avances. Aunque las instituciones de educación superior tienen un papel crucial que desempeñar en la enseñanza de la escritura académica y la integridad académica, las editoriales y revistas académicas son las que tienen más poder e influencia para allanar el camino hacia la normalización de las prácticas relativas a la divulgación del uso de la IA generativa en el mundo académico. Esto se debe a que una parte significativa de la estructura de incentivos que rige la investigación, incluidas las posibilidades de los académicos de obtener financiación, sus oportunidades de desarrollo profesional y su reputación, están estrechamente entrelazadas con el lugar donde publican. En consecuencia, unas directrices más explícitas de los editores y las revistas que desaconsejen citar chatbots como fuentes serían importantes para institucionalizar las prácticas aceptables e inaceptables.

Una alternativa que debe estudiarse más a fondo es desarrollar una norma para marcar las frases que se toman textualmente de los chatbots, pero de manera que no se confundan con citas de fuentes de información. Si este enfoque de atribución sin fuente se convirtiera en la norma, podría tener otras consecuencias para la forma en que conceptualizamos los chatbots y la IA, pero preservaría la integridad de los ecosistemas de información. Un sistema así tendría que ser compartido por todos los editores para que tuviera sentido, y requeriría no sólo estar de acuerdo en que esto es deseable, sino cierto grado de coordinación entre ellos.

Las universidades y otras instituciones de enseñanza superior han estado lidiando con la forma de orientar al personal y a los estudiantes sobre la IA Generativa, así como con el modo en que estas herramientas afectan a las normativas vigentes relativas a las trampas y el plagio. En lo que respecta a los trabajos de los estudiantes, es esencial evitar establecer para ellos normas diferentes de las que se aplican a los académicos que publican en foros académicos. Es posible que los estudiantes que aún no han desarrollado el oficio de la investigación y la escritura académicas no tengan la madurez académica necesaria para utilizar herramientas de IA sin salvaguardas preestablecidas en sus tareas y exámenes. Las prácticas que los estudiantes aprendan hoy repercutirán en la producción científica en un futuro próximo, por lo que el reto debe abordarse con expectativas claras, el fomento de la alfabetización en IA, la alfabetización informacional y el apoyo institucional.

En conclusión, aunque puede resultar tentador dejar el asunto en manos de cada académico o regular el uso de chatbots en la escritura académica mediante el mismo aparato que utilizamos para las fuentes de información reales, se necesitan consideraciones diferentes cuando se trata de IA generativa. Citar a los chatbots como fuentes de información no sólo ayudaría poco a promover el uso inteligente de la IA generativa, sino que también podría ser perjudicial. Esperamos que cada vez más instituciones académicas, desde editoriales hasta universidades, adopten una postura más clara a la hora de utilizar los chatbots no como fuentes de información que citamos, sino como herramientas que divulgamos.

Agradecimientos

Nos gustaría dar las gracias a Ann Michael, Avi Staiman y Tadeu Fernando Nogueira por sus comentarios sobre las versiones anteriores de esta serie de dos partes y a Sindre Andre Pedersen por las interesantes discusiones sobre este tema. También agradecemos a Inger Hesjevoll Schmidt-Melbye y Alexander Lyngsnes su ayuda con la interpretación etimológica (parte I), y a Katrine Aronsen sus consejos sobre la búsqueda de artículos que emplean chatbots como fuentes de información.

************************************


Guest Post — The Case For Not Citing Chatbots As Information Sources (Part II)



Editor’s Note: Today’s post is by by Leticia Antunes Nogueira and Jan Ove Rein, both from the Norwegian University of Science and Technology (NTNU). Leticia is project leader for artificial intelligence at the university library. Jan Ove is Senior Research Librarian and acts as a subject specialist for medicine, providing teaching, counseling and research support for staff and students at The Faculty of Medicine and Health Science.

In Part I of Chatbots: To Cite Or Not To Cite? our guest authors explored the context of citation and information sources and how Generative AI fits in. Today, they continue to develop their arguments toward a conclusion.

In part I we explored publisher’s policies on generative AI, which in general offer clear recommendations for not accepting chatbots as (co)authors, but which leave guidance on the question of citing chatbots as information sources somewhat vague. We also explored the reasons for citing other works and the observation that opinions differ on whether generative AI tools should be seen as information sources.

To cite or not to cite?

In this dilemma and amidst the uncertainty about which practices and rules apply, our position is that chatbots should not be accepted as sources, and therefore should not be cited as such. This is a different matter than explicitly labeling AI-generated content. A piece of text that is entirely generated by generative AI ought to be marked as such for the sake of trust and transparency. But the matter of authors citing chatbots as information sources refers to a different issue. This does not mean that authors’ use of generative AI should go unacknowledged, much to the contrary. 

Like declarations regarding conflicts of interest, we consider it useful to declare if and how authors have used generative AI in their work. There are many legitimate uses of generative AI, and disclosure can contribute to transparency and as a source of inspiration on how to use these innovative tools to the benefit of academic research, not its detriment. This approach, however, is not without its challenges, given that the very definition of what constitutes generative AI can be blurry, as well as how much awareness users have of it.

We recognize the concern with the rightful attribution of ideas that are not one’s own, we maintain that the drawbacks of citing a chatbot are greater than the benefits of attribution. Two important reasons for this position, as we discuss in part I, concern the fact that outputs from chatbot can neither be reproduced, nor traced back as traditional sources. Nonetheless, in addition to this common objection for accepting chatbots as sources, we offer a few more arguments. 


Citing chatbots conflicts with author policies

First and foremost, if academia agrees that chatbots cannot be acknowledged as authors, citing them as sources undermines this position. Doing so even indirectly legitimizes chatbots and their developers as authors. For instance, if we write that “the crust of the earth is a vast museum” (Darwin C. On the origin of species. Minneapolis, MN: First Avenue Editions; 2018, p. 162.), it is clear to the reader who checks our references that Darwin is the author of this statement, which can be found by anyone who checks page 162 of the specific edition to which we point. Citing chatbots creates a precedent that undermines the responsibility of authors. 

Editor’s Note: Today’s post is by by Leticia Antunes Nogueira and Jan Ove Rein, both from the Norwegian University of Science and Technology (NTNU). Leticia is project leader for artificial intelligence at the university library. Jan Ove is Senior Research Librarian and acts as a subject specialist for medicine, providing teaching, counseling and research support for staff and students at The Faculty of Medicine and Health Science.

In Part I of Chatbots: To Cite Or Not To Cite? our guest authors explored the context of citation and information sources and how Generative AI fits in. Today, they continue to develop their arguments toward a conclusion.

In part I we explored publisher’s policies on generative AI, which in general offer clear recommendations for not accepting chatbots as (co)authors, but which leave guidance on the question of citing chatbots as information sources somewhat vague. We also explored the reasons for citing other works and the observation that opinions differ on whether generative AI tools should be seen as information sources.

To cite or not to cite? 
In this dilemma and amidst the uncertainty about which practices and rules apply, our position is that chatbots should not be accepted as sources, and therefore should not be cited as such. This is a different matter than explicitly labeling AI-generated content. A piece of text that is entirely generated by generative AI ought to be marked as such for the sake of trust and transparency. But the matter of authors citing chatbots as information sources refers to a different issue. This does not mean that authors’ use of generative AI should go unacknowledged, much to the contrary. 

A piece of text that is entirely generated by generative AI ought to be marked as such for the sake of trust and transparency. But the matter of authors citing chatbots as information sources refers to a different issue. 

Like declarations regarding conflicts of interest, we consider it useful to declare if and how authors have used generative AI in their work. There are many legitimate uses of generative AI, and disclosure can contribute to transparency and as a source of inspiration on how to use these innovative tools to the benefit of academic research, not its detriment. This approach, however, is not without its challenges, given that the very definition of what constitutes generative AI can be blurry, as well as how much awareness users have of it.

We recognize the concern with the rightful attribution of ideas that are not one’s own, we maintain that the drawbacks of citing a chatbot are greater than the benefits of attribution. Two important reasons for this position, as we discuss in part I, concern the fact that outputs from chatbot can neither be reproduced, nor traced back as traditional sources. Nonetheless, in addition to this common objection for accepting chatbots as sources, we offer a few more arguments. 

Citing chatbots conflicts with author policies

First and foremost, if academia agrees that chatbots cannot be acknowledged as authors, citing them as sources undermines this position. Doing so even indirectly legitimizes chatbots and their developers as authors. For instance, if we write that “the crust of the earth is a vast museum” (Darwin C. On the origin of species. Minneapolis, MN: First Avenue Editions; 2018, p. 162.), it is clear to the reader who checks our references that Darwin is the author of this statement, which can be found by anyone who checks page 162 of the specific edition to which we point. Citing chatbots creates a precedent that undermines the responsibility of authors.

Citing chatbots creates a precedent that undermines the responsibility of authors.  

If rather than Darwin, the citation read “OpenAI,” we would implicitly be accepting that OpenAI is responsible for making that claim. It is true that scholars cite nonhuman entities regularly. We do it ourselves in part I, when we cite publishers’ policies on generative AI. But citing a report by the United Nations, for example, and a piece of synthetic text from an AI developer is decidedly not the same. Organizations are composed of people, and thus bear responsibility in a way that chatbot developers simply cannot.

Citing chatbots pollutes the information environment  
Insisting on citing chatbots as sources promotes a kind of pollution in information ecosystems. This is because not only are people’s trust in sources compromised, but also if the very data used to train LLMs is generated by AI (i.e., texts from the internet, academic texts, and others), the quality of the models erodes. This has been seen, for example in appeals to keep Wikipedia, whose freely licensed content has been crucial for training LLMs, a human-centered project. Moreover, uncritical use of chatbots entails epistemic risks; that is, chatbots do not ‘know’ the answer to any question, they predict a sequence of words that might answer the question. When we take up these outputs and not only ascribe them the value of information and knowledge but also legitimize the LLM as the source, we create a self-fulfilling prophecy that reinforces the model’s prediction as de-facto reality. This would be troubling in any circumstance; but six years after “misinformation” was crowned the word of the year, and terms like ‘echo chamber’, ‘filter bubble’, and ‘post-truth’ have become common parlance, the issue of source integrity gains a new dimension. 

Chatbots have not been designed to be truth machines

Chatbots have not been designed as tools for information purposes, though they can perform very well in tasks primarily concerned with communication. The uncertainty about the quality of their outputs is due to their purpose and structure, not their degree of technological maturity. LLMs are probabilistic by design, meaning that falsehoods are — as those in tech culture would say — a feature, not a bug. Hallucinations are easy to understand once we recognize that chatbots work by calculating the likelihood of upcoming linguistic strings, given preceding inputs, training data, and model parameters. Looking under the hood of chatbots and appreciating how they work, we become aware of their uses and limitations. They are based on patterns of language usage, not information.

Once chatbots get coupled with trustworthy databases to generate text based on selected and curated data, then it becomes possible to increase the trust placed in their outputs, not as sources, but as means to extract information from a large information pool. In this kind of use, chatbots do not serve as the source of information in and of themselves, but point to sources in their dataset. At the same time, this kind of tool gives rise to other challenges, such as whether the sources are genuine and relevant, as well as to what extent the text has been taken verbatim or paraphrased. This kind of application can already be seen in tools such as Microsoft Copilot in Bing (for general use) and Scopus AI, Elicit, and Scite (for academic use) to name a few, although these tools are also not free from criticism.  

Creating rules that cannot be enforced sends the wrong signal

Prescribing that authors cite chatbots as sources does not mean they will do so, especially since the chances of identifying this are slim. Regular plagiarism checking tools do not detect synthetic text, and AI detection tools are deeply unreliable. We can’t assume with an adequate degree of certainty whether a piece of text is genuine or synthetic, based only on our opinions about the text. Hence, if citing chatbots as information sources became the accepted standard, we would have a situation in which social norms dictate a practice that can be ignored with little consequence. In our view, the fact that the APA (and we remark, only the APA) has proposed a framework for citing chatbots, should not mean that those who follow the APA style are expected or obligated to do so. APA is very clear about their proposal being based upon the citation structure for software rather than personal communication, and about the need to document the use of generative AI in other ways as well in a piece of work.

Another risk in prescribing that chatbots be cited is that this practice legitimizes the kind of low competence use in which it becomes acceptable to take text verbatim from LLMs, so long as a citation is included. This would be unfortunate, since there are in fact more productive uses of these tools that support learning and research rather than undermine them. Academia would benefit more from investing in AI literacy and education

There will be instances in which ideas will go without attribution and some authors do and will use chatbots inappropriately. When this happens, it will be nearly impossible to identify and reprimand. Nonetheless, this is not a problem that can be solved by citing chatbots. Moreover, that less-than-ideal scholarly practices happen is not something that first came about with the introduction of chatbots. We would be hard pressed to find anyone who would say it is fine, for example, to cite a paper you have not read. This is an unfortunate and problematic practice, and yet, it is neither a concrete prohibition nor possible to control. The way our current norms work in this regard entail a kind of peer-pressure that discourages problematic behavior. In other words, if you cite without having read, chances are you might cite it wrongly, which could lead to negative exposure and you research being retracted.

We need a similar approach for chatbots: sociocultural norms that prescribe appropriate and inappropriate uses of tools, even though enforcing these norms as concrete rules is impractical. Social cultural norms are fragile when they first emerge, but those that endure through time eventually get deeply embedded into institutional culture. This approach falls short if the ambition is to ensure no one ever acts in this manner; but it does work to establish a clear set of expectations concerning adequate and inadequate practices and behaviors. 

Final thoughts

The challenges generative AI pose to academic integrity, arise not from academic values becoming obsolete in face of increasingly automated intellectual work, but from a lack of established norms for dealing with these developments. While higher education institutions have a crucial role to play in teaching academic writing and academic integrity, academic publishers and journals are the ones with the most power and influence to pave the way for the normalization of practices concerning the disclosure of generative AI use in academia. That is because a significant share of the incentive structure governing research, including scholars’ chances of obtaining funding, their opportunities for career development, and their reputation are intricately intertwined with where they publish. As a result, more explicit guidelines from publishers and journals advising against citing chatbots as sources would be important for institutionalizing acceptable and unacceptable practices.

An alternative to be explored further is to develop a standard for marking sentences that are taken verbatim from chatbots, but in a manner that does not conflate them with citations of information sources. If this approach of attribution without sourcing became the standard, it might lead to other consequences for how we conceptualize chatbots and AI, but it would preserve the integrity of information ecosystems. Such a system would need to be shared across publishers for it to make sense, and it would require not only agreement that this is desirable, but some degree of coordination among them.

Universities and other higher education institutions have been grappling with how to provide guidance to staff and students about Generative AI, as well as how these tools affect existing regulations relevant to cheating and plagiarism. When it comes to student assignments, it is essential to avoid establishing different standards for them than for scholars publishing in academic fora. Students who have not yet developed the craft of academic research and writing may not have the academic maturity to use AI tools without pre-established guardrails in their assignments and exams. The practices students learn today will have an effect on scientific production in the near future, and the challenge needs to be addressed with clear expectations, the promotion of AI literacy, information literacy and institutional support.

In conclusion, while it can be tempting either to leave the matter to individual scholars, or to regulate the use of chatbots in academic writing through the same apparatus we use for actual information sources, different considerations are needed when it comes to generative AI. Not only would citing chatbots as information sources offer little in terms of promoting smart use of generative AI, it could also be damaging. We hope to see more scholarly institutions, from publishers to universities, taking a clearer position in using chatbots not sources of information that we cite, but tools that we disclose.

Acknowledgements We would like to thank Ann Michael, Avi Staiman and Tadeu Fernando Nogueira for their comments on earlier versions of this two-part series and Sindre Andre Pedersen for interesting discussions on this theme. We are also grateful to Inger Hesjevoll Schmidt-Melbye and Alexander Lyngsnes for their assistance with etymological interpretation (part I), and Katrine Aronsen for her advice on searching for articles that employ chatbots as information sources.

 Leticia Antunes Nogueira

Leticia Antunes Nogueira is project leader for artificial intelligence at the university library at the Norwegian University of Science and Technology (NTNU). 


Jan Ove Rein

Jan Ove Rein is Senior Research Librarian at the Norwegian University of Science and Technology (NTNU), and acts as a subject specialist for medicine, providing teaching, counseling and research support for staff and students at The Faculty of Medicine and Health Science.


No hay comentarios:

Publicar un comentario

Intentando mejorar el sistema actual de las publicaciones científicas: habrá que leerse los artículos

Publicado en  The Conversation   https://theconversation.com/intentando-mejorar-el-sistema-actual-de-las-publicaciones-cientificas-habra-que...