Si les spécialistes interrogés par l’AFP reconnaissent l’intérêt d’outils comme ChatGPT pour aider à la rédaction de contenus, notamment en termes de traduction pour tous les chercheurs dont la langue maternelle n’est pas l’anglais, plusieurs rétractations récentes de revues ont mis en évidence l’existence de pratiques malhonnêtes.
Plus tôt cette année, une illustration d’un rat aux organes génitaux surdimensionnés, largement partagée sur les réseaux sociaux, a conduit au retrait d’une étude publiée dans une revue de l’éditeur universitaire Frontiers, un poids lourd du domaine. Le mois dernier, une autre étude a été retirée après avoir présenté l’image d’une jambe humaine avec… trop d’os.
Au-delà de ces illustrations erronées, le plus grand bouleversement du secteur semble venir de ChatGPT, l’outil conversationnel développé par la société américaine OpenAI et basé sur l’IA. Une étude publiée par le groupe d’édition scientifique britannique Elsevier est devenue virale en mars : son introduction commençait par «Bien sûr, voici une introduction possible pour votre sujet“, une formule typique pour les réponses ChatGPT.
De plus en plus d’articles produits par ChatGPT
Ces ratés embarrassants, ayant échappé à la vigilance des experts chargés de revoir les études avant publication, restent rares et n’auraient sans doute pas passé les filtres de contrôle des revues les plus prestigieuses, ont indiqué plusieurs spécialistes à l’AFP. Le recours à l’IA est souvent difficile à détecter, mais semble en nette augmentation dans la littérature scientifique.
Andrew Gray, bibliothécaire à l’University College de Londres, a parcouru des millions d’articles scientifiques à la recherche de mots tels que «méticuleux“, “complexe“, ou “louable“, souvent surexploité par l’IA. Selon lui, au moins 60 000 articles auraient été produits avec l’IA en 2023, soit 1% de la production annuelle, et l’année 2024 devrait marquer un “augmentation significative” de ces chiffres.
De son côté, l’association américaine Retraction Watch a observé un record de 13 000 rétractations d’articles dans le domaine scientifique en 2023, du jamais vu. Pour Ivan Oransky, l’un de ses cofondateurs, l’IA permet désormais de :« industrialiserr” la production de papiers “poubelle” par les “usines” d’articles.
Ces acteurs produisent de nombreux articles de mauvaise qualité, plagiés ou faux, explique la microbiologiste néerlandaise spécialisée dans la détection d’images truquées Elisabeth Bik. Payés par des chercheurs encouragés à produire toujours plus, ces “usines« serait à l’origine d’environ 2% des publications chaque année, mais ce chiffre est en train d’«exploser» à cause de l’IA, selon cet expert.
Plagiat d’articles
Pour Ivan Oransky, l’IA ne fait qu’alimenter une «problème écrasant” : la demande insatiable d’articles de la part des éditeurs et des universités exerce une pression sur les chercheurs, classés selon leur production, créant ainsi une “cercle vicieux” Dans le même temps, les mesures de protection contre les “usines” à papier restent insuffisantes.
Le problème de ces fraudes massives avait été révélé notamment après le rachat de l’éditeur Hindawi par la société américaine Wiley en 2021, qui a été suivi depuis par le retrait de quelque 11 300 articles précédemment publiés par Hindawi. Pour tenter de résoudre ce problème croissant, Wiley a mis en place un «service de détection d’usine« pour détecter les abus de l’IA, un service lui-même alimenté par l’IA.
Mais la semaine dernière, un chercheur américain a néanmoins découvert ce qui semble être une version réécrite par ChatGPT d’un de ses propres articles, publié dans une revue Wiley. Samuel Payne, professeur de bioinformatique à l’université Brigham Young aux Etats-Unis, a déclaré à l’AFP qu’on lui avait demandé en mars de vérifier l’étude en question. Après avoir réalisé qu’il s’agissait d’une “plagiat“à partir de sa propre étude réécrite par une IA, il refuse d’approuver la publication. M. Payne s’est déclaré “choqué« de constater qu’au lieu d’être retiré, le travail plagié avait simplement été publié dans une autre revue.