Comment l’IA générative transforme les pratiques de recherche : nouveaux enjeux d’intégrité scientifique

L’édition 2025 du colloque de l’Ofis a réuni autour de 200 personnes, le 15 avril à l’Institut de Physique du Globe de Paris. Elle s’est déroulée à guichets fermés dans un amphithéâtre plein toute la journée. Programme, documents, vidéos, diaporamas sont accessibles sur cette page pour partager les réflexions et les échanges riches et stimulants de cette journée.
-
Thèmes et sessions de la journée
- Vidéos du colloque
- Documents à consulter
- Présentations (diaporamas)
Comment l’IA générative transforme les pratiques de recherche : nouveaux enjeux d’intégrité scientifique
L’utilisation des outils d’intelligence artificielle générative à différentes étapes des activités de recherche transforme la façon de produire des connaissances et de les diffuser. Cette évolution invite à questionner collectivement, à l’aune des exigences de l’intégrité scientifique, les pratiques à adopter dans un contexte où les outils progressent aussi vite que les acteurs de la recherche s’en emparent.
Comment garantir la fiabilité des résultats générés à l’aide de ces outils, la transparence des méthodes utilisées ? Comment s’assurer de la protection des données personnelles, de la propriété intellectuelle, du respect du droit des données de recherche ? Comment accompagner les communautés de recherche dans ces nouveaux usages ?
Pour débattre de ces enjeux, le colloque annuel 2025 de l’Ofis s’est articulé autour de trois dimensions de la recherche : la production des connaissances, le respect de l’intégrité scientifique dans les différentes activités de la recherche, notamment la publication des résultats, et enfin les questions de régulation ou d’autorégulation des usages.
Le programme de la journée :
- Marc Chaussidon, directeur de l’Institut de Physique du Globe de Paris (IPGP)
- Stéphanie Ruphy, directrice de l’Ofis, professeure à l’ENS Ulm
L’IA générative en recherche, quels usages, quelles pratiques ?
- Alexei Grinbaum, directeur de recherche, président du Comité opérationnel d’éthique du numérique du CEA
Modération : Romain Pierronnet, conseiller scientifique à l’Ofis
Panel : Comment l’IA générative transforme la façon de faire de la recherche, de produire des connaissances ?
L’IA générative ouvre des possibilités inédites pour la recherche (nouvelles méthodes, analyse massive de données, etc.). Cet apport est déjà largement reconnu. Le prix Nobel de chimie 2024 a distingué les résultats d’Alfafold2, modèle capable de prédire la structure 3D des protéines. Le décryptage spectaculaire des rouleaux antiques d’Herculanum a fait la une des médias. Les perspectives sont multiples et concernent toutes les disciplines.
Pour aider à prendre la mesure des changements à l’œuvre, un premier panel de chercheuses et chercheurs utilisateurs d’IA générative dans différentes disciplines partagent leur expérience et leurs réflexions. Que ce soit pour faire une revue de littérature, produire des données et des résultats ou élaborer une méthodologie, chacune et chacun explique comment elle ou il appréhende les limites et défauts généralement imputés aux modèles de langage (fiabilité des résultats, opacité des codes et des données d’apprentissage, risque de non-respect du RGPD et de la propriété intellectuelle, coût environnemental, etc.).
- Paola Cinnella, professeure de physique, Institut Jean Le Rond d’Alembert, Sorbonne Université
- Alessandra Carbone, professeure, directrice du laboratoire de biologie computationnelle et quantitative, Sorbonne Université
- Alexandre Gefen, directeur de recherche en humanités numériques, art et IA, Thalim, Sorbonne Nouvelle, directeur adjoint scientifique de CNRS SHS
- Paola Tubaro, directrice de recherche, sociologue du numérique, CREST, CNRS-ENSAE
Quelles bonnes IA génératives pour faire de la recherche ? Qu’est-ce qu’un modèle ouvert ?
Existe-t-il des types de modèles d’IA générative plus vertueux que d’autres, mieux adaptés à la conduite d’une recherche responsable ? Quid de la souveraineté numérique ? Que veut dire « être ouvert » pour un modèle d’IA générative ?
Points de vue croisés d’une actrice du monde privé des développeurs de modèles de langage (LLMs) et d’une responsable d’un cluster IA académique, pôle d’excellence en recherche et formation en intelligence artificielle.
- Anastasia Stasenko, co-fondatrice de Pleias, maître de conférences associée à l’Université Sorbonne Nouvelle
- Sarah Cohen Boulakia, professeure, directrice adjointe de l’Institut DATAIA, Institut Interdisciplinaire d’Intelligence Artificielle de l’l’Université Paris-Saclay
Modération : Nicolas Fressengeas, membre du conseil d’orientation de l’Ofis
Principaux points de vigilance et recommandations
La vitesse à laquelle les chercheuses et chercheurs se sont emparés des outils d’IA générative a conduit la communauté de recherche qui travaille sur les enjeux d’intégrité scientifique à se saisir de ce sujet. Quels sont les effets sur les pratiques de recherche, quels sont les points de vigilance à identifier ? Les recommandations émanant de ces travaux posent des premiers jalons de réflexion pour les communautés de recherche.
- Tomáš Foltýnek, président du réseau européen pour l’intégrité académique, assistant professor à l’Université Masaryk
Focus sur la publication scientifique
L’écriture et la publication d’articles scientifiques est l’une des activités pour laquelle l’utilisation des LLMs a rapidement été massive, à la fois par les chercheuses et chercheurs et par les maisons d’édition. Quatre interventions éclairent tour à tour ces enjeux spécifiques, à commencer par un point de vue sur l’évolution de la publication à l’ère de la science ouverte et de l’IA générative. Puis trois perspectives ciblées sur la question de l’usage d’IA générative pour la peer review, sur les mésusages de ces outils à des fins mercantiles et enfin sur l’impact en interne, au sein d’une maison d’édition.
- Vincent Larivière, professeur à l’Université de Montréal, titulaire de la Chaire UNESCO sur la science ouverte
- Vasiliki Mollaki, Scientific Associate, Hellenic National Commission for Bioethics and Technoethics
- Ophélie Fraisier-Vannier, post-doctorante, Institut de Recherche en Informatique de Toulouse, Université de Toulouse
- Nick Wise, Research Integrity Manager chez Taylor & Francis
Modération : Stéphanie Ruphy, directrice de l’Ofis
L’AI Act : quelles conséquences pour les activités de recherche, quelles implications sur les données de recherche ?
L’Europe a choisi de réguler les usages de ces outils par l’AI Act, premier cadre juridique global sur l’IA au monde qui vise à favoriser une IA digne de confiance. Quelle est la portée de cette régulation sur les activités de recherche ?
- Agnès Robin, maître de conférences HDR en Droit privé, Université de Montpellier (LICeM), spécialiste de Droit de la propriété intellectuelle et du numérique
Panel : Comment les établissements envisagent l’accompagnement de leurs chercheuses et chercheurs ?
En France, à l’échelle des établissements, les gouvernances, les comités éthiques, les référents à l’intégrité scientifique s’interrogent sur les lignes directrices à élaborer. Certains ont déjà publié des recommandations, d’autres lancent des expérimentations, mettent en place des structures dédiées. Ce panel a pour objectif d’échanger sur les raisons ayant motivé les choix réalisés ou en cours, sur les enjeux prioritaires, sur les obstacles à surmonter pour la mise en œuvre de ces initiatives dans les établissements.
- Catherine Bourgain, directrice de recherche Inserm, membre du comité d’éthique de l’Inserm
- Estelle Jaligot, déléguée à la déontologie et à l’intégrité scientifique et référente à l’intégrité scientifique du Cirad
- Germain Forestier, vice-président IA et transformation numérique, Université de Haute-Alsace
- Olivier Wong-Hee-Kam, vice-président numérique, Université de Rennes ; président de l’association VP-Num
- Karteek Alahari, directeur de recherche INRIA, directeur scientifique adjoint en charge de l’IA à l’INRIA
- Olivier Serre, directeur de recherche, directeur adjoint scientifique de CNRS Sciences informatiques
- Stéphanie Ruphy, directrice de l’Ofis, professeure à l’ENS Ulm
Retour en images sur le colloque « Comment l’IA générative transforme les pratiques de recherche : nouveaux enjeux d’intégrité scientifique »
L’utilisation accrue des outils d’IA générative dans de nombreuses dimensions de l’activité de recherche transforme en profondeur les pratiques des chercheuses et des chercheurs.
Dans le cadre de sa mission nationale d’animation et de prospective, l’Ofis a invité le 15 avril lors de l’édition 2025 de son colloque annuel, une vingtaine d’intervenantes et intervenants de disciplines et d’horizons différents pour débattre collectivement des enjeux d’intégrité scientifique que soulèvent ces nouveaux usages.
Les 200 personnes ayant participé au colloque (sur place ou en ligne) ont contribué à la richesse des réflexions et des échanges tout au long de la journée.
Retrouvez ici, en 8 vidéos, les trois sessions du colloque après l’introduction et la présentation d’ouverture.
Introduction du colloque
00:04 | Marc Chaussidon, directeur de l’Institut de Physique du Globe de Paris (IPGP)
06:33 | Stéphanie Ruphy, directrice de l’Ofis, professeure à l’ENS Ulm
Ouverture
L’IA générative en recherche, quels usages, quelles pratiques ?
Alexei Grinbaum, directeur de recherche, président du Comité opérationnel d’éthique du numérique du CEA
Session 1 : Production des connaissances
Panel : comment l’IA générative transforme la façon de faire de la recherche, de produire des connaissances ?
Modération
Romain Pierronnet, conseiller scientifique à l’Ofis
Intervenantes & intervenants
03:14 | Paola Cinnella, professeure de physique, Institut Jean Le Rond d’Alembert, Sorbonne Université
20:11 | Alessandra Carbone, professeure, directrice du laboratoire de biologie computationnelle et quantitative, Sorbonne Université
39:06 | Alexandre Gefen, directeur de recherche en humanités numériques, art et IA, Thalim, Sorbonne Nouvelle, directeur adjoint scientifique de CNRS SHS
53:24 | Paola Tubaro, directrice de recherche, sociologue du numérique, CREST, CNRS-ENSAE
Session 1 : Production des connaissances
Quelles bonnes IA génératives pour faire de la recherche ? Qu’est-ce qu’un modèle ouvert ?
Modération
Romain Pierronnet, conseiller scientifique à l’Ofis
Intervenantes
01:48 | Anastasia Stasenko, co-fondatrice de Pleias, maître de conférences associée à l’Université Sorbonne Nouvelle
21:29 | Sarah Cohen Boulakia, professeure, directrice adjointe de l’Institut DATAIA, Institut Interdisciplinaire d’Intelligence Artificielle de l’l’Université Paris-Saclay
Session 2 : Enjeux d’intégrité scientifique à diverses étapes de la recherche
Principaux points de vigilance et recommandations
Modération
Nicolas Fressengeas, membre du conseil d’orientation de l’Ofis
Intervenant
02:06 | Tomáš Foltýnek, président du réseau européen pour l’intégrité académique, assistant professor à l’Université Masaryk
Session 2 : Enjeux d’intégrité scientifique à diverses étapes de la recherche
Focus sur la publication scientifique
Modération
Nicolas Fressengeas, membre du conseil d’orientation de l’Ofis
Intervenants & intervenantes
02:36 | Vincent Larivière, professeur à l’Université de Montréal, titulaire de la Chaire UNESCO sur la science ouverte
28:40 | Vasiliki Mollaki, Scientific Associate, Hellenic National Commission for Bioethics and Technoethics
40:16 | Ophélie Fraisier-Vannier, post-doctorante, Institut de Recherche en Informatique de Toulouse, Université de Toulouse
52:56 | Nick Wise, Research Integrity Manager chez Taylor & Francis
Session 3 : Quelle régulation /autorégulation pour ces nouveaux usages ?
Panel : Comment les établissements envisagent l’accompagnement de leurs chercheuses et chercheurs ?
Modération
Stéphanie Ruphy, directrice de l’Ofis
Intervenantes & intervenants
Catherine Bourgain, directrice de recherche Inserm, membre du comité d’éthique de l’Inserm, Estelle Jaligot, déléguée à la déontologie et à l’intégrité scientifique et référente à l’intégrité scientifique du Cirad, Germain Forestier, vice-président IA et transformation numérique, Université Haute-Alsace, Olivier Wong-Hee-Kam, vice-président numérique, Université de Rennes ; président de l’association VP-Num, Karteek Alahari, directeur de recherche INRIA, directeur scientifique adjoint en charge de l’IA à l’INRIA, Olivier Serre, directeur de recherche, directeur adjoint scientifique de CNRS Sciences informatiques
01:39 | À quels besoins cherchez-vous à répondre dans votre établissement ? Sous quelle forme ?
19:10 | Quels sont les enjeux prioritaires pour un usage responsable des outils d’IA générative en recherche dans votre établissement ?
40:56 | Quels vont être les obstacles à surmonter pour la mise en œuvre de ces initiatives ?
Mot de clôture
1:14:30 | Stéphanie Ruphy, directrice de l’Ofis
Documents à consulter
Articles, recommandations, documents de référence évoqués lors du colloque 2025 de l’Ofis.
Ouverture
Dans cet entretien publié dans l’infolettre de l’Ofis de février 2024, Alexei Grinbaum, spécialiste d’éthique numérique, éclairait les enjeux liés à l’utilisation d’IA générative en recherche au moment de la mise en place d’un nouveau cadre légal européen.
Pour accompagner les utilisateurs et utilisatrices d’IA générative dans leurs pratiques de recherche, l’Ofis a publié en février 2024 une note sur les principaux points appelant à la vigilance.
Session 2 : Enjeux d’intégrité scientifique à diverses étapes de la recherche
Dans cet article à paraître, Tomáš Foltýnek et ses coauteurs ont cherché à identifier les enjeux d’intégrité scientifique liés à l’usage de systèmes d’IA générative à différentes phases des activités de recherche (développement de questions de recherche, analyse documentaire, traitement des données et rédaction d’articles). Face à l’évolution constante de ces outils et de leur appropriation, les auteurs proposent une série de recommandations pour aider les chercheuses et chercheurs à les utiliser efficacement et dans le respect des exigences de l’intégrité scientifique. L’article donne également une bonne vision des travaux actuels de recherche sur ces questions ainsi que des différentes lignes directrices ayant été publiées.
Dès mars 2024, la Commission européenne a publié des lignes directrices pour un usage responsable en science, « qui visent à préserver l’intégrité de la recherche ». Adressées aux chercheuses et chercheurs, aux organismes de recherche et aux agences de financement, ces recommandations s’appuient sur les chartes et guides élaborés depuis fin 2022 par diverses instances (COPE, ALLEA , etc). Une deuxième édition a été publiée en avril 2025.
Dans son article publié en 2024, Death of a reviewer or death of peer review integrity? the challenges of using AI tools in peer reviewing and the need to go beyond publishing policies, Vasiliki Mollaki met l’accent sur le besoin de procédures transparentes en matière d’utilisation d’outils d’IA générative pour le processus de peer review et la nécessité, selon elle, d’exclure les reviewers qui ne les respectent pas.
Un article paru depuis dans Nature en mars 2025, AI is transforming peer review — and many scientists are worried , décrit l’offre grandissante d’outils d’IA générative pour les reviewers.
Session 3 : Quelle régulation /autorégulation pour ces nouveaux usages ?
Publié en février 2025, le « Guide de bonnes pratiques de l’Intelligence Artificielle à l’Inserm » émane d’un travail conjoint du comité éthique de l’Inserm, du programme Lorier et du comité scientifique de l’Inserm. Il émet 10 recommandations principales pour un usage éthique de ces outils.
Au Cirad, cette note de synthèse intitulée « Usages des outils d’Intelligence Artificielle générative dans le domaine de la recherche- Points de vigilance et bonnes pratiques – » publiée en octobre 2024, a pour objectif de fournir aux utilisateurs des repères et pistes de réflexion leur permettant d’employer ces outils de manière éclairée et responsable ou de choisir de ne pas le faire.
Présentations
Après le fil conducteur de la journée, retrouvez-ici les diaporamas qui ont accompagné les différentes interventions.