Rechercher
Fermer ce champ de recherche.
Rechercher
Fermer ce champ de recherche.
ai

Protéger l’intégrité scientifique à l’âge des IA génératives : les chercheurs ne doivent pas être seuls responsables

Points clés

Le titre de cet éditorial paru en mai 2024 dans PNAS semble recycler des banalités, mais ce n’est pas le cas : Protecting scientific integrity in an age of generative AI. Nous savons que la plupart des acteurs de la recherche attirent notre attention sur une utilisation responsable des IA génératives. Nous avons évoqué les recommandations européennes et l’actualisation de la plupart des instructions aux auteurs des revues scientifiques.

Cinq principes responsables pour les chercheurs et les concepteurs des IA

Ce qui est rassurant, c’est que ces principes bien choisis sont explicités avec deux cibles : 1) les chercheurs comme toutes les autres recommandations ; 2) les concepteurs de modèles d’IA (Model creators) et les transformateurs (Refiners). Il me semble très important de proposer les principes de la recherche responsable, à tous les acteurs et de ne pas se limiter aux chercheurs.

Les cinq principes décrits sont attendus :

  1. Transparent disclosure and attribution
  2. Verification of AI-generated content and analyses
  3. Documentation of AI-generated data
  4. A focus on ethics and equity
  5. Continuous monitoring, oversight, and public engagement

Les défis sont bien décrits dans cet article

Je traduis les dernier paragraphe de l’introduction : La capacité de l’IA générative à interagir avec les scientifiques de manière naturelle, à effectuer des types de résolution de problèmes sans précédent et à générer des idées et des contenus nouveaux pose des défis aux valeurs et à l’intégrité des efforts scientifiques. Ces défis compliquent la tâche des scientifiques, de l’ensemble de la communauté des chercheurs et du public pour 1) comprendre et confirmer la véracité du contenu, des évaluations et des analyses générés ; 2) maintenir une attribution précise des analyses et des informations rédigées par la machine par rapport à celles rédigées par l’homme ; 3) assurer la transparence et la divulgation des utilisations de l’IA dans la production de résultats de recherche ou d’analyses textuelles ; 4) permettre la reproduction des études et des analyses ; et 5) identifier et atténuer les biais et les inégalités introduits par les algorithmes de l’IA et les données d’apprentissage.

Des auteurs prestigieux

Il y a 24 auteurs prestigieux, américains, anglais, allemands qui sont soit des universitaires, soit des employés de sociétés privées bien connues. Parmi ces auteurs, il y a Marcia K McNutt de National Academy of Sciences, Washington.

Cet éditorial est un appel résumant les travaux d’un panel international d’experts sous l’égide de : National Academy of Sciences, Annenberg Public Policy Center of the University of Pennsylvania, Annenberg Foundation Trust at Sunnylands

Combien de pays auront des conseils de l’IA ?

En fait cet éditorial se termine ainsi : We propose that the National Academies of Sciences, Engineering, and Medicine establish a Strategic Council on the Responsible Use of Artificial Intelligence in Science. The council should coordinate with the scientific community and provide regularly updated guidance on the appropriate uses of AI, especially during this time of rapid change. The council should study, monitor, and address the evolving uses of AI in science; new ethical and societal concerns, including equity; and emerging threats to scientific norms. The council should share its insights across disciplines and develop and refine best practices.

Partagez cet article sur les réseaux:
Facebook
Twitter
Pinterest
LinkedIn

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Articles populaires

Archives mensuelles

Suivez-nous

Newsletter

Inscrivez-vous à notre newsletter mensuelle

Tags

Vous pourriez aussi aimer