Articles, recommandations, documents de référence évoqués lors du colloque 2025 de l’Ofis.
Ouverture
Dans cet entretien publié dans l’infolettre de l’Ofis de février 2024, Alexei Grinbaum, spécialiste d’éthique numérique, éclairait les enjeux liés à l’utilisation d’IA générative en recherche au moment de la mise en place d’un nouveau cadre légal européen.
Pour accompagner les utilisateurs et utilisatrices d’IA générative dans leurs pratiques de recherche, l’Ofis a publié en février 2024 une note sur les principaux points appelant à la vigilance.
Session 2 : Enjeux d’intégrité scientifique à diverses étapes de la recherche
Dans cet article à paraître, Tomáš Foltýnek et ses coauteurs ont cherché à identifier les enjeux d’intégrité scientifique liés à l’usage de systèmes d’IA générative à différentes phases des activités de recherche (développement de questions de recherche, analyse documentaire, traitement des données et rédaction d’articles). Face à l’évolution constante de ces outils et de leur appropriation, les auteurs proposent une série de recommandations pour aider les chercheuses et chercheurs à les utiliser efficacement et dans le respect des exigences de l’intégrité scientifique. L’article donne également une bonne vision des travaux actuels de recherche sur ces questions ainsi que des différentes lignes directrices ayant été publiées.
Dès mars 2024, la Commission européenne a publié des lignes directrices pour un usage responsable en science, « qui visent à préserver l’intégrité de la recherche ». Adressées aux chercheuses et chercheurs, aux organismes de recherche et aux agences de financement, ces recommandations s’appuient sur les chartes et guides élaborés depuis fin 2022 par diverses instances (COPE, ALLEA , etc). Une deuxième édition a été publiée en avril 2025.
Dans son article publié en 2024, Death of a reviewer or death of peer review integrity? the challenges of using AI tools in peer reviewing and the need to go beyond publishing policies, Vasiliki Mollaki met l’accent sur le besoin de procédures transparentes en matière d’utilisation d’outils d’IA générative pour le processus de peer review et la nécessité, selon elle, d’exclure les reviewers qui ne les respectent pas.
Un article paru depuis dans Nature en mars 2025, AI is transforming peer review — and many scientists are worried , décrit l’offre grandissante d’outils d’IA générative pour les reviewers.
Session 3 : Quelle régulation /autorégulation pour ces nouveaux usages ?
Publié en février 2025, le « Guide de bonnes pratiques de l’Intelligence Artificielle à l’Inserm » émane d’un travail conjoint du comité éthique de l’Inserm, du programme Lorier et du comité scientifique de l’Inserm. Il émet 10 recommandations principales pour un usage éthique de ces outils.
Au Cirad, cette note de synthèse intitulée « Usages des outils d’Intelligence Artificielle générative dans le domaine de la recherche- Points de vigilance et bonnes pratiques – » publiée en octobre 2024, a pour objectif de fournir aux utilisateurs des repères et pistes de réflexion leur permettant d’employer ces outils de manière éclairée et responsable ou de choisir de ne pas le faire.