Depuis quelques semaines, nous avons tous été renversés par l’apparition soudaine de ChatGTQ et le niveau atteint par le logiciel. Depuis novembre, chacun y va de son test (dans la mesure où la bête est disponible) pour mesurer l’ampleur du cratère éthique qui vient de se creuser soudainement sous nos pieds. Par exemple, désormais, les travaux d’étudiants seront-ils vraiment de leur plume/clavier ? Devrons-nous en revenir aux examens oraux ?
Le milieu de la recherche scientifique, déjà aux prises avec de nombreuses formes de fraudes et de magouilles exacerbées par la compétition féroce pour le petit nombre de place au soleil, se réveille avec un troll des cavernes dans sa cour arrière. Les fameuses entreprises qui vendent des articles “prêts à publier” (joyeusement nommées papermills en anglais) ne sont qu’un cas de figure.
Un exemple ? Une équipe de chercheurs a fait rédiger des résumés d’articles scientifiques dans le domaine médical à ChatGTQ, lesquels se sont avérés très difficile à détecter même par des experts (https://www.nature.com/articles/d41586-023-00056-7). Par contre, bonne nouvelle en quelque sorte, les outils AI se sont avérés en mesure de faire ce travail de détection avec tout autant de précision que les experts. Le feu par le feu...
Ce n’est pas la seule contre-attaque pour lutter contre l’usage abusif de l’AI ou d’autres formes de fraude ou de mauvaises sciences. Chemistry World signalait récemment l’apparition d’un outil utilisant des algorithmes de traitement du langage naturel et d'apprentissage automatique pour signaler automatiquement les problèmes de reproductibilité, de transparence et de paternité dans les articles scientifiques (https://www.chemistryworld.com/news/journals-to-trial-tool-that-automatically-flags-reproducibility-and-transparency-issues-in-papers/4016666.article). Un effet secondaire désirable serait alors d’éliminer du déjà trop lourd volume de révision par les pairs les articles qui ne rencontrent pas un minimum de qualité structurelle et éthique.
Un autre outil, un peu plus controversé par contre, identifient et qualifient les erreurs statistiques dans les données publiées. Limité pour l’instant au domaine de la psychologie, il y a fort à parier que le processus sera transporté et adapté ailleurs dans le monde de la littérature scientifique (https://www.science.org/content/article/controversial-software-proving-surprisingly-accurate-spotting-errors-psychology-papers).
Et enfin, les “moulins à papier”, ces entreprises qui offrent des articles n’attendant que votre nom comme auteur (et votre chèque...), et que plusieurs revues de moindre qualité accepteront sans hésiter... voire en n’y voyant que du feu (https://www.lapresse.ca/actualites/sciences/2023-01-08/une-industrie-de-fraudes-scientifiques-de-masse.php). Mauvaise nouvelle pour ces tricheurs toutefois : un consortium de grands éditeurs s’active à déployer un outil de détection … qui utilisent justement l’AI (https://www.nature.com/articles/d41586-022-04367-z).
On est déjà dans une autre ligue que la simple détection de plagiat et ça ne fait que commencer.
Bienvenue dans la Matrice !
--
Merci à Peter GC Campbell et à Michel Courcelles pour leur contribution
--
Image: 0fjd125gk87 via Pixabay