Des organisations publient des recommandations pour utiliser l’IA générative en recherche. Nous avons présentés les recos de l’INRAE et du Cirad, et les dernières recos européennes sont d’avril 2025.
Réflexions sur l’usage de l’IA générative pour les métiers de la recherche
C’est l’INRIA qui a déposé sur HAL dans l’été 2025 un texte de 11 pages de réflexions. L’INRIA est l’Institut national de recherche en sciences et technologies du numérique avec une dizaine de sites en France. Je reprends les recommandations qui pourraient être adaptées à des organisations dans le domaine santé.
- Les utilisateurs de l’IA générative doivent se considérer et être tenus comme responsables de l’utilisation qu’ils en font et des contenus qu’ils produisent et diffusent. Ils restent les auteurs exclusifs des contenus qu’ils produisent et
diffusent, y compris lorsque l’IA générative a été impliquée dans leur production. Ils doivent par exemple s’assurer que les contenus qu’ils diffusent ne sont pas constitutifs de plagiat.
- Sachant que l’évaluation reste une tâche complexe impliquant des visions contradictoires, la CE recommande l’interdiction de l’utilisation de LLM lors, par exemple, des étapes d’évaluations des dossiers de candidatures et de relectures des articles.
- En l’absence de LLM souverain, la CE recommande que chacun soit extrêmement vigilant à ne pas transmettre, par l’intermédiaire des prompts des agents conversationnels, des données confidentielles (ou à caractère personnel). Cette recommandation concerne tous les personnels (chercheurs, administratifs).
- Par souci de transparence, l’utilisation de l’IA générative pour certaines tâches (génération de texte, traduction, image) doit être déclarée. Pour cela un guide précis doit être élaboré conjointement au sein d’Inria (avec le comité d’éthique, la DAJ, la DGDS,la CE, etc.) sur :
- la frontière entre ce qui doit être déclaré et les cas où ce n’est pas nécessaire et,
- la façon de décrire cette utilisation.
- À l’instar de ce qui se fait aux USA et au Japon, la CE recommande qu’Inria réfléchisse à s’allier avec les acteurs de l’ESR (et même européens et/ou industriels) pour développer une IA générative (entraînement ou affinage et évaluation, cf. travail sur AuROraGPT) libre et souveraine dédiée au monde de la recherche et utilisable comme assistant dans les tâches quotidiennes des chercheurs et des personnels administratifs.
- Entraîner un LLM nécessite des données. Inria doit mener une réflexion sur le corpus des données : aspects légaux sur la mise à disposition de corpus d’entraînement (par exemple HAL) : enjeu de licence, enjeu technique, etc.
- La CE recommande de faciliter l’acquisition de licences d’utilisation d’IA générative par les équipes, que ce soit pour des questions de recherche ou des questions de productivité.
- L’utilisation de l’IA générative nécessite un apprentissage. La CE recommande que des sessions de formation soient organisées dans les centres à destination des personnels (et en particulier des jeunes) pour bien maîtriser les outils et leur utilisation légitime et pour comprendre les limites et les biais de ces outils.
- La CE recommande que des discussions ouvertes aient lieu entre les personnels, à l’échelle de l’institut, au sein des équipes et services sur l’utilisation de ces outils portant sur leurs usages, leurs avantages et leurs limites.
- Compte tenu des nombreux flous qui entourent l’utilisation de l’IA générative, la CE recommande que cet usage, en matière de programmation, soit circonscrit à des codes non-critiques et invite les personnels à se questionner sur l’utilisation des plateformes collaboratives qu’ils utilisent pour leurs développements.
- La CE recommande d’avoir des référents sur ce sujet et de pérenniser le groupe de travail pour suivre l’évolution de l’impact de l’IA générative sur l’ensemble des métiers de l’institut, ainsi que pour anticiper et accompagner les mutations induites dans l’ensemble de notre société.
Merci à The MetaNews pour l’information
diffusent, y compris lorsque l’IA générative a été impliquée dans leur production. Ils doivent par exemple s’assurer que les contenus qu’ils diffusent ne sont pas constitutifs de plagiat.