Il s’agit d’un preprint sur arXiv déposé fin novembre 2025 sur des résultats présentés à la 20th International Conference on Scientometrics & Informetrics. L’auteur, Dmitry Kochetkov, a deux affiliations, Leiden Hollande et Moscou Russie.
Les universités doivent élaborer une gouvernance responsable de l’IA
Que dit le résumé de ce preprint ? Voici une traduction : L’intégration de l’intelligence artificielle générative (GenAI) et des grands modèles linguistiques (LLM) dans la recherche scientifique et l’enseignement supérieur représente un changement de paradigme, offrant des opportunités révolutionnaires tout en soulevant de profondes questions éthiques, juridiques et réglementaires. Cette étude examine l’intersection complexe entre l’IA et la science, en mettant particulièrement l’accent sur les défis posés au droit d’auteur et aux principes de la science ouverte. L’auteur soutient que les cadres réglementaires actuels dans des juridictions clés telles que les États-Unis, la Chine, l’Union européenne et le Royaume-Uni, bien qu’ils visent à favoriser l’innovation, comportent des lacunes importantes, notamment en ce qui concerne l’utilisation d’œuvres protégées par le droit d’auteur et les résultats de la science ouverte pour la formation en IA. Les mécanismes de licence largement adoptés, tels que Creative Commons, ne permettent pas de répondre de manière adéquate aux nuances de la formation en IA, et l’absence généralisée d’attribution au sein des systèmes d’IA remet fondamentalement en question les notions établies d’originalité. Cet article lance un appel à l’action, affirmant que la formation en IA ne devrait pas être protégée par des exceptions au titre de l’usage légitime. L’auteur préconise plutôt de défendre le droit des auteurs de refuser l’utilisation de leurs œuvres pour la formation en IA et propose que les universités jouent un rôle de premier plan dans l’élaboration d’une gouvernance responsable de l’IA. La conclusion est qu’un effort législatif international harmonisé est nécessaire de toute urgence pour garantir la transparence, protéger la propriété intellectuelle et empêcher l’émergence d’une structure de marché oligopolistique qui pourrait privilégier le profit commercial au détriment de l’intégrité scientifique et de la production équitable des connaissances.
Une liste des régulations existantes et des conseils de Perplexity (c’est ma responsabilité après relecture)
Dans cet article, le tableau liste et résume les points principaux de documents anglais (deux), nord-américains (trois) chinois (deux), européens (IA Act et Living guidelines for research), OCDE (un), UNESCO (un) et G7 (un). Intéressant.
Voici ce que me dit Perplexity : Kochetkov montre comment l’IA transforme la communication scientifique : automatisation de la revue par les pairs, synthèses de littérature, et éditions assistées. Si ces innovations améliorent l’efficacité, elles soulèvent des risques majeurs : biais algorithmiques, atteintes à la confidentialité, diffusion de fausses informations et perte de traçabilité des sources. L’auteur insiste particulièrement sur un paradoxe : les données scientifiques, souvent diffusées en open access, alimentent gratuitement l’industrie de l’IA, sans consentement ni attribution des auteurs.
L’analyse juridique compare les approches réglementaires dans les principales juridictions :
-
États‑Unis : d’abord attentifs au droit d’auteur sous Biden (Executive Order 14110, 2023 ; projet de Generative AI Copyright Disclosure Act, 2024), mais cette orientation a été abandonnée par le gouvernement Trump (AI Action Plan, 2025).
-
Royaume‑Uni : le Artificial Intelligence (Regulation) Bill (2025) se distingue en imposant la déclaration des données et œuvres protégées utilisées pour l’entraînement, avec obligation de conformité au droit d’auteur.
-
Union européenne : l’AI Act (2024) et la Strategy for AI in Science (2025) visent la transparence et la gestion des risques sans aborder explicitement la question du copyright.
-
Chine : les Interim Measures (2023) privilégient le contrôle des contenus et la sécurité plutôt que les droits d’auteur.
L’étude accorde une place centrale à Creative Commons, dont les licences actuelles (comme CC BY) ne protègent pas contre la réutilisation des œuvres pour l’entraînement d’IA. Le projet CC Signals (2025), en consultation publique, introduit des « signaux » exprimant les préférences des auteurs concernant l’usage de leurs contenus par des machines ; mais son efficacité dépendra de son applicabilité juridique et de son adoption mondiale.
Kochetkov estime que l’entraînement d’IA ne doit pas relever du fair use américain : les modèles sont commerciaux, produisent des œuvres dérivées, et nuisent au marché et à la reconnaissance des auteurs. Il recommande que les universités jouent un rôle moteur : appliquer des politiques de consentement explicite, soutenir CC Signals, développer des LLMs ouverts et éthiques, et intégrer la formation à l’éthique de l’IA.
En conclusion, l’auteur appelle à une gouvernance mondiale coordonnée du droit d’auteur appliqué à l’IA, comportant trois volets : harmonisation légale, standardisation procédurale (permissions lisibles par machine) et coopération pour l’application. L’enjeu : éviter que la production scientifique ne soit captée par un oligopole techno‑éditorial au détriment du bien commun et de l’intégrité académique.


