Versió 1.0
En els darrers anys hem vist una forta proliferació de les eines d'intel·ligència artificial (IA), que han passat de tenir un ús anecdòtic en àrees molt especialitzades a aplicar-se de forma generalitzada en molts àmbits de les nostres societats. Aquest fenomen presenta noves i interessants oportunitats per a la ciència, però també reptes.
Per exemple, des de l’aparició dels chatbots, és possible l’elaboració de textos que, tot i ser lingüísticament precisos, fluids o convincents, poden estar compromesos de diverses maneres. Múltiples fonts ens alerten que aquestes eines corren el risc d’incloure biaixos, distorsions, irrellevàncies, tergiversacions i plagis,[1][2] molts causats pels algoritmes que regeixen la seva generació i que depenen en gran manera del contingut dels materials utilitzats en el seu entrenament.
Així doncs, hi ha prou evidències per afirmar que la IA presenta importants riscos tant en la creació com en la difusió de coneixements pel seu potencial d’amplificar la informació errònia i la desinformació,[3] que alhora plantegen noves qüestions jurídiques en relació amb la propietat intel·lectual.[4]
Per tant, cal introduir mecanismes que garanteixin un ús raonable de la intel·ligència artificial en la ciència, independentment de la tecnologia emprada o de l’ús que se’n faci.
Per tots aquests motius, la revista es compromet a garantir la integritat acadèmica i la transparència en la recerca del seu àmbit i reclama que l’autoria compleixi les directrius següents sobre l’ús de la intel·ligència artificial en la preparació dels articles.
Usos no acceptats
1. Autoria de l’article. Cap IA pot constar com a autora o coautora d'un article. Tot i que l’estatus legal d’un/a autor/a difereix d’un país a un altre, a Espanya i en la majoria de les jurisdiccions, l’autoria sempre recau en una persona jurídica.[5]
2. Generació autònoma de contingut científic. Les IA no han de ser utilitzades per generar hipòtesis, interpretar dades o formular conclusions sense la supervisió i la validació dels/de les autors/ores.
3. Omissió de divulgació. No revelar l’ús de les IA en l’article es considera una manca d’ètica acadèmica i pot implicar el rebuig de la proposta o la retirada de l’article ja publicat.[5]
Usos acceptats
1. Assistència en redacció i edició. Les IA es poden utilitzar per millorar la claredat del llenguatge, la correcció gramatical i la fluïdesa del text, però els/les autors/ores són responsables del contingut final i n’han de verificar l’exactitud.
2. Revisió bibliogràfica. Els/les autors/es poden emprar les IA com a suport en el procés de revisar la bibliografia i d’elaborar resums d’articles, assegurant sempre que la informació generada sigui precisa i avalada per fonts verificables.
3. Anàlisi de dades i modelatge. Es permet la integració de les IA per fer anàlisi de dades i modelar-les, sempre que es descrigui detalladament en la metodologia i es garanteixi la fiabilitat de les dades resultants.
4. Revisió de plagi i referències. Els/les autors/ores poden emprar eines d’IA per verificar l’originalitat dels seus treballs i millorar la precisió de les citacions i referències.
Pel que fa a la divulgació, qualsevol ús de la IA ha de ser revelat explícitament a l’article indicant l’eina emprada, el seu propòsit i els prompts emprats (o les accions realitzades per reproduir el resultat) en una declaració d’ús d’IA publicada al final de l’article. Aquesta declaració ha d’incloure la informació següent:
- Nom i versió de les eines d’IA utilitzades.
- Breu descripció de com s’ha utilitzat la IA (per exemple: assistència en la revisió de bibliografia, edició i revisió de l’esborrany, anàlisi de dades, etc.).
- Accions realitzades per obtenir els resultats en cada tasca (per exemple: prompts, programació, etc.) i garantir la reproductibilitat.
A més, l’autor/a ha d’informar sobre l’ús d’IA durant el procés de tramesa d’originals marcant el camp específic de la llista de verificació.
Procés editorial
Els/les editors/ores i revisors/ores han d’especificar qualsevol ús d’intel·ligència artificial en l’avaluació del manuscrit i la generació de revisions i correspondència. Aquesta informació cal fer-la arribar als/a les autors/ores i a tothom que participi en el procés editorial.
Per garantir la privacitat de les dades de recerca i de les revisions, totes les parts han de ser conscients que la majoria d’eines d’IA retenen les instruccions i les dades que se’ls envien, fins i tot el contingut del manuscrit, i que, per exemple, proporcionar un article d’un/a autor/a a un chatbot viola la confidencialitat.[5]
Referències
[1] Elali, F. R., & Rachid, L. N. (2023). «AI-generated research paper fabrication and plagiarism in the scientific community». Patterns (New York, N.Y.), 4(3), 100706. https://doi.org/10.1016/j.patter.2023.100706
[2] COPE (2023). Guest editorial: the challenge of AI chatbots for journal editors. https://publicationethics.org/news-opinion/guest-editorial-challenge-ai-chatbots-journal-editors
[3] Bhuiyan J. (2023). «OpenAI CEO calls for laws to mitigate ‘risks of increasingly powerful' AI». The Guardian. https://www.theguardian.com/technology/2023/may/16/ceo-openai-chatgpt-ai-tech-regulations. Accessed May 27, 2023.
[4] Appel G, Neelbauer J, Schweidel DA. (2023). «Generative AI has an intellectual property problem». Harvard Business Review. https://hbr.org/2023/04/generative-ai-has-an-intellectual-property-problem. Accessed May 27, 2023.
[5] Zielinski C, Winker MA, Aggarwal R, Ferris LE, Heinemann M, Lapeña JF, Pai SA, Ing Edsel, Citrome L, Alam M, Voight M, Habibzadeh F. (2023). «Recomendaciones de WAME sobre “chatbots” e inteligencia artificial generativa en relación con las publicaciones académicas». Colombia Médica, 54(3), e1015868. http://doi.org/10.25100/cm.v54i3.5868
Llicència
Document elaborat pel servei de publicacions de la UAB i distribuït sota llicència CC-BY.