Pour une culture partagée
de l’intégrité scientifique

Colloque 2025

Comment l’IA générative transforme les pratiques de recherche : nouveaux enjeux d’intégrité scientifique 

 L’édition 2025 du colloque de l’Ofis a réuni autour de 200 personnes, le 15 avril à l’Institut de Physique du Globe de Paris. Elle s’est déroulée à guichets fermés dans un amphithéâtre plein toute la journée. Programme, documents, vidéos, diaporamas sont accessibles sur cette page pour partager les réflexions et les échanges riches et stimulants de cette journée.

 La presse en parle :

Comment l’IA générative transforme les pratiques de recherche : nouveaux enjeux d’intégrité scientifique

L’utilisation des outils d’intelligence artificielle générative à différentes étapes des activités de recherche transforme la façon de produire des connaissances et de les diffuser. Cette évolution invite à questionner collectivement, à l’aune des exigences de l’intégrité scientifique, les pratiques à adopter dans un contexte où les outils progressent aussi vite que les acteurs de la recherche s’en emparent.

Comment garantir la fiabilité des résultats générés à l’aide de ces outils, la transparence des méthodes utilisées ? Comment s’assurer de la protection des données personnelles, de la propriété intellectuelle, du respect du droit des données de recherche ? Comment accompagner les communautés de recherche dans ces nouveaux usages ?

Pour débattre de ces enjeux, le colloque annuel 2025 de l’Ofis s’est articulé autour de trois dimensions de la recherche : la production des connaissances, le respect de l’intégrité scientifique dans les différentes activités de la recherche, notamment la publication des résultats, et enfin les questions de régulation ou d’autorégulation des usages.

Le programme de la journée :

  • Marc Chaussidon, directeur de l’Institut de Physique du Globe de Paris (IPGP)
  • Stéphanie Ruphy, directrice de l’Ofis, professeure à l’ENS Ulm
L’IA générative en recherche, quels usages, quelles pratiques ?
  • Alexei Grinbaum, directeur de recherche, président du Comité opérationnel d’éthique du numérique du CEA

Modération  : Romain Pierronnet, conseiller scientifique à l’Ofis

Panel : Comment l’IA générative transforme la façon de faire de la recherche, de produire des connaissances ?

L’IA générative ouvre des possibilités inédites pour la recherche (nouvelles méthodes, analyse massive de données, etc.). Cet apport est déjà largement reconnu. Le prix Nobel de chimie 2024 a distingué les résultats d’Alfafold2, modèle capable de prédire la structure 3D des protéines. Le décryptage spectaculaire des rouleaux antiques d’Herculanum a fait la une des médias. Les perspectives sont multiples et concernent toutes les disciplines. 

Pour aider à prendre la mesure des changements à l’œuvre, un premier panel de chercheuses et chercheurs utilisateurs d’IA générative dans différentes disciplines partagent leur expérience et leurs réflexions. Que ce soit pour faire une revue de littérature, produire des données et des résultats ou élaborer une méthodologie, chacune et chacun explique comment elle ou il appréhende les limites et défauts généralement imputés aux modèles de langage (fiabilité des résultats, opacité des codes et des données d’apprentissage, risque de non-respect du RGPD et de la propriété intellectuelle, coût environnemental, etc.). 

  • Paola Cinnella, professeure de physique, Institut Jean Le Rond d’Alembert, Sorbonne Université
  • Alessandra Carbone, professeure, directrice du laboratoire de biologie computationnelle et quantitative, Sorbonne Université
  • Alexandre Gefen, directeur de recherche en humanités numériques, art et IA, Thalim, Sorbonne Nouvelle, directeur adjoint scientifique de CNRS SHS
  • Paola Tubaro, directrice de recherche, sociologue du numérique, CREST, CNRS-ENSAE
 
Quelles bonnes IA génératives pour faire de la recherche ? Qu’est-ce qu’un modèle ouvert ?

Existe-t-il des types de modèles d’IA générative plus vertueux que d’autres, mieux adaptés à la conduite d’une recherche responsable ?  Quid de la souveraineté numérique ? Que veut dire « être ouvert » pour un modèle d’IA générative ?

Points de vue croisés d’une actrice du monde privé des développeurs de modèles de langage (LLMs) et d’une responsable d’un cluster IA académique, pôle d’excellence en recherche et formation en intelligence artificielle.

  • Anastasia Stasenko, co-fondatrice de Pleias, maître de conférences associée à l’Université Sorbonne Nouvelle  
  • Sarah Cohen Boulakia, professeure, directrice adjointe de l’Institut DATAIA, Institut Interdisciplinaire d’Intelligence Artificielle de l’l’Université Paris-Saclay

Modération : Nicolas Fressengeas, membre du conseil d’orientation de l’Ofis

Principaux points de vigilance et recommandations

La vitesse à laquelle les chercheuses et chercheurs se sont emparés des outils d’IA générative a conduit la communauté de recherche qui travaille sur les enjeux d’intégrité scientifique à se saisir de ce sujet. Quels sont les effets sur les pratiques de recherche, quels sont les points de vigilance à identifier ? Les recommandations émanant de ces travaux posent des premiers jalons de réflexion pour les communautés de recherche.

  • Tomáš Foltýnek, président du réseau européen pour l’intégrité académique, assistant professor à l’Université Masaryk
Focus sur la publication scientifique

L’écriture et la publication d’articles scientifiques est l’une des activités pour laquelle l’utilisation des LLMs a rapidement été massive, à la fois par les chercheuses et chercheurs et par les maisons d’édition. Quatre interventions éclairent tour à tour ces enjeux spécifiques, à commencer par un point de vue sur l’évolution de la publication à l’ère de la science ouverte et de l’IA générative. Puis trois perspectives ciblées sur la question de l’usage d’IA générative pour la peer review, sur les mésusages de ces outils à des fins mercantiles et enfin sur l’impact en interne, au sein d’une maison d’édition.

  • Vincent Larivière, professeur à l’Université de Montréal, titulaire de la Chaire UNESCO sur la science ouverte
  • Vasiliki Mollaki, Scientific Associate, Hellenic National Commission for Bioethics and Technoethics
  • Ophélie Fraisier-Vannier, post-doctorante, Institut de Recherche en Informatique de Toulouse, Université de Toulouse
  • Nick Wise, Research Integrity Manager chez Taylor & Francis

Modération : Stéphanie Ruphy, directrice de l’Ofis

L’AI Act : quelles conséquences pour les activités de recherche, quelles implications sur les données de recherche ?

L’Europe a choisi de réguler les usages de ces outils par l’AI Act, premier cadre juridique global sur l’IA au monde qui vise à favoriser une IA digne de confiance. Quelle est la portée de cette régulation sur les activités de recherche ?

  • Agnès Robin, maître de conférences HDR en Droit privé, Université de Montpellier (LICeM), spécialiste de Droit de la propriété intellectuelle et du numérique
 
Panel : Comment les établissements envisagent l’accompagnement de leurs chercheuses et chercheurs ?

En France, à l’échelle des établissements, les gouvernances, les comités éthiques, les référents à l’intégrité scientifique s’interrogent sur les lignes directrices à élaborer. Certains ont déjà publié des recommandations, d’autres lancent des expérimentations, mettent en place des structures dédiées. Ce panel a pour objectif d’échanger sur les raisons ayant motivé les choix réalisés ou en cours, sur les enjeux prioritaires, sur les obstacles à surmonter pour la mise en œuvre de ces initiatives dans les établissements.

  • Catherine Bourgain, directrice de recherche Inserm, membre du comité d’éthique de l’Inserm
  • Estelle Jaligot, déléguée à la déontologie et à l’intégrité scientifique et référente à l’intégrité scientifique du Cirad
  • Germain Forestier, vice-président IA et transformation numérique, Université de Haute-Alsace
  • Olivier Wong-Hee-Kam, vice-président numérique, Université de Rennes ; président de l’association VP-Num
  • Karteek Alahari, directeur de recherche INRIA, directeur scientifique adjoint en charge de l’IA à l’INRIA
  • Olivier Serre, directeur de recherche, directeur adjoint scientifique de CNRS Sciences informatiques
  • Stéphanie Ruphy, directrice de l’Ofis, professeure à l’ENS Ulm

Retour en images sur le colloque « Comment l’IA générative transforme les pratiques de recherche : nouveaux enjeux d’intégrité scientifique »

L’utilisation accrue des outils d’IA générative dans de nombreuses dimensions de l’activité de recherche transforme en profondeur les pratiques des chercheuses et des chercheurs. 

Dans le cadre de sa mission nationale d’animation et de prospective, l’Ofis a invité le 15 avril lors de l’édition 2025 de son colloque annuel, une vingtaine d’intervenantes et intervenants  de disciplines et d’horizons différents pour débattre collectivement des enjeux d’intégrité scientifique que soulèvent ces nouveaux usages.

Les 200 personnes ayant participé au colloque (sur place ou en ligne) ont contribué à la richesse des réflexions et des échanges tout au long de la journée. 

Retrouvez ici, en 8 vidéos, les trois sessions du colloque après l’introduction et la présentation d’ouverture. 

Introduction  du colloque

00:04 | Marc Chaussidon, directeur de l’Institut de Physique du Globe de Paris (IPGP)

06:33 | Stéphanie Ruphy, directrice de l’Ofis, professeure à l’ENS Ulm

Ouverture

L’IA générative en recherche, quels usages, quelles pratiques ?

Alexei Grinbaum, directeur de recherche, président du Comité opérationnel d’éthique du numérique du CEA

Session 1 : Production des connaissances

Panel : comment l’IA générative transforme la façon de faire de la recherche, de produire des connaissances ?
Modération

Romain Pierronnet, conseiller scientifique à l’Ofis

Intervenantes & intervenants 

03:14 | Paola Cinnella, professeure de physique, Institut Jean Le Rond d’Alembert, Sorbonne Université

20:11 | Alessandra Carbone, professeure, directrice du laboratoire de biologie computationnelle et quantitative, Sorbonne Université

39:06 | Alexandre Gefen, directeur de recherche en humanités numériques, art et IA, Thalim, Sorbonne Nouvelle, directeur adjoint scientifique de CNRS SHS

53:24 | Paola Tubaro, directrice de recherche, sociologue du numérique, CREST, CNRS-ENSAE

Session 1 : Production des connaissances

Quelles bonnes IA génératives pour faire de la recherche ? Qu’est-ce qu’un modèle ouvert ?
Modération

Romain Pierronnet, conseiller scientifique à l’Ofis

Intervenantes 

01:48 | Anastasia Stasenko, co-fondatrice de Pleias, maître de conférences associée à l’Université Sorbonne Nouvelle  

21:29 | Sarah Cohen Boulakia, professeure, directrice adjointe de l’Institut DATAIA, Institut Interdisciplinaire d’Intelligence Artificielle de l’l’Université Paris-Saclay

Session 2 : Enjeux d’intégrité scientifique à diverses étapes de la recherche 

Principaux points de vigilance et recommandations
Modération

Nicolas Fressengeas, membre du conseil d’orientation de l’Ofis

Intervenant

02:06 | Tomáš Foltýnek, président du réseau européen pour l’intégrité académique, assistant professor à l’Université Masaryk

Session 2 : Enjeux d’intégrité scientifique à diverses étapes de la recherche 

Focus sur la publication scientifique
Modération

Nicolas Fressengeas, membre du conseil d’orientation de l’Ofis

Intervenants & intervenantes

02:36 | Vincent Larivière, professeur à l’Université de Montréal, titulaire de la Chaire UNESCO sur la science ouverte

28:40 | Vasiliki Mollaki, Scientific Associate, Hellenic National Commission for Bioethics and Technoethics

40:16 | Ophélie Fraisier-Vannier, post-doctorante, Institut de Recherche en Informatique de Toulouse, Université de Toulouse

52:56 | Nick Wise, Research Integrity Manager chez Taylor & Francis

Session 3 : Quelle régulation /autorégulation pour ces nouveaux usages ?

Panel : Comment les établissements envisagent l’accompagnement de leurs chercheuses et chercheurs ?
Modération

Stéphanie Ruphy, directrice de l’Ofis

Intervenantes & intervenants

Catherine Bourgain, directrice de recherche Inserm, membre du comité d’éthique de l’Inserm,  Estelle Jaligot, déléguée à la déontologie et à l’intégrité scientifique et référente à l’intégrité scientifique du Cirad, Germain Forestier, vice-président IA et transformation numérique, Université Haute-Alsace,  Olivier Wong-Hee-Kam, vice-président numérique, Université de Rennes ; président de l’association VP-Num, Karteek Alahari, directeur de recherche INRIA, directeur scientifique adjoint en charge de l’IA à l’INRIA, Olivier Serre, directeur de recherche, directeur adjoint scientifique de CNRS Sciences informatiques

01:39 | À quels besoins cherchez-vous à répondre dans votre établissement ? Sous quelle forme ?

19:10 | Quels sont les enjeux prioritaires pour un usage responsable des outils d’IA générative en recherche dans votre établissement ?

40:56 | Quels vont être les obstacles à surmonter pour la mise en œuvre de ces initiatives ?

Mot de clôture

1:14:30 | Stéphanie Ruphy, directrice de l’Ofis

Documents à consulter

Articles, recommandations,  documents de référence évoqués lors du colloque  2025 de l’Ofis.

Ouverture

Dans cet entretien publié dans l’infolettre de l’Ofis de février 2024, Alexei Grinbaum, spécialiste d’éthique numérique, éclairait les enjeux liés à l’utilisation d’IA générative en recherche au moment de la mise en place d’un nouveau cadre légal européen.

Pour accompagner les utilisateurs et utilisatrices d’IA générative dans leurs pratiques de recherche, l’Ofis a publié en février 2024 une note sur les principaux points appelant à la vigilance.

Session 2 : Enjeux d’intégrité scientifique à diverses étapes de la recherche 

Dans cet article à paraître, Tomáš Foltýnek et ses coauteurs ont cherché à identifier les enjeux d’intégrité scientifique liés à l’usage de systèmes d’IA générative à différentes phases des activités de recherche (développement de questions de recherche, analyse documentaire, traitement des données et rédaction d’articles).  Face à l’évolution constante de ces outils et de leur appropriation, les auteurs proposent une série de recommandations pour aider les chercheuses et chercheurs à les utiliser efficacement et dans le respect des exigences de l’intégrité scientifique.  L’article donne également une bonne vision des travaux actuels de recherche sur ces questions ainsi que des différentes lignes directrices ayant été publiées.

Dès mars 2024, la Commission européenne a publié des lignes directrices pour un usage responsable en science, « qui visent à préserver l’intégrité de la recherche ». Adressées aux chercheuses et chercheurs, aux organismes de recherche et aux agences de financement, ces recommandations s’appuient sur les chartes et guides élaborés depuis fin 2022 par diverses instances (COPE, ALLEA , etc). Une deuxième édition a été publiée en avril 2025.

Dans son article publié en 2024, Death of a reviewer or death of peer review integrity? the challenges of using AI tools in peer reviewing and the need to go beyond publishing policies, Vasiliki Mollaki met l’accent sur le besoin de procédures transparentes en matière d’utilisation d’outils d’IA générative pour le processus de peer review et la nécessité, selon elle, d’exclure les reviewers qui ne les respectent pas.

Un article paru depuis dans Nature en mars 2025, AI is transforming peer review — and many scientists are worried , décrit l’offre grandissante d’outils d’IA générative pour les reviewers

Session 3 : Quelle régulation /autorégulation pour ces nouveaux usages ? 

Avec l’AI Act, l’Union européenne s’est clairement positionnée en chef de file de la régulation des outils d’IA. Publié le 12 juillet 2024, ce règlement entre en application de façon échelonnée du 2 février 2025 au 2 août 2027. 

Publié en février 2025, le « Guide de bonnes pratiques de l’Intelligence Artificielle à l’Inserm »  émane d’un travail conjoint du comité éthique de l’Inserm, du programme Lorier et du comité scientifique de l’Inserm. Il  émet 10 recommandations principales  pour un usage éthique de ces outils.

Au Cirad, cette note de synthèse intitulée « Usages des outils d’Intelligence Artificielle générative dans le domaine de la recherche- Points de vigilance et bonnes pratiques – » publiée en octobre 2024, a pour objectif de fournir aux utilisateurs des repères et pistes de réflexion leur permettant d’employer ces outils de manière éclairée et responsable ou de choisir de ne pas le faire.

Présentations

Après le fil conducteur de la journée, retrouvez-ici les diaporamas qui ont accompagné les différentes interventions.

Fil conducteur

Déroulé et intervenants

Ouverture

Présentation d’Alexei Grinbaum, directeur de recherche, président du Comité opérationnel d’éthique du numérique du CEA

Session 1 : Production des connaissances

Panel : Comment l’IA générative transforme la façon de faire de la recherche, de produire des connaissances ?

Présentation de Paola Cinnella, professeure de physique, Institut Jean Le Rond d’Alembert, Sorbonne Université

Présentation d’Alessandra Carbone, professeure, directrice du laboratoire de biologie computationnelle et quantitative, Sorbonne Université

Présentation de Paola Tubaro, directrice de recherche, sociologue du numérique, CREST, CNRS-ENSAE

Quelles bonnes IA génératives pour faire de la recherche ? Qu’est-ce qu’un modèle ouvert ?

Présentation d’Anastasia Stasenko, co-fondatrice de Pleias, maître de conférences associée à l’Université Sorbonne Nouvelle  

Présentation de Sarah Cohen Boulakia, professeure, directrice adjointe de l’Institut DATAIA, Institut Interdisciplinaire d’Intelligence Artificielle de l’l’Université Paris-Saclay

Session 2 : Enjeux d’intégrité scientifique à diverses étapes de la recherche 

Principaux points de vigilance et recommandations

Présentation de Tomáš Foltýnek, président du réseau européen pour l’intégrité académique, assistant professor à l’Université Masaryk

Focus sur la publication scientifique

Présentation de Vincent Larivière, professeur à l’Université de Montréal, titulaire de la Chaire UNESCO sur la science ouverte

Présentation de Vasiliki Mollaki, Scientific Associate, Hellenic National Commission for Bioethics and Technoethics

Présentation d’Ophélie Fraisier-Vannier, post-doctorante, Institut de Recherche en Informatique de Toulouse, Université de Toulouse

Présentation de Nick Wise, Research Integrity Manager chez Taylor & Francis

Session 3 : Quelle régulation /autorégulation pour ces nouveaux usages ? 

L’AI Act : quelles conséquences pour les activités de recherche, quelles implications sur les données de recherche ?

Présentation d’Agnès Robin, maître de conférences HDR en Droit privé, Université de Montpellier (LICeM), spécialiste de Droit de la propriété intellectuelle et du numérique