Cet article de la rubrique ‘Perspective’ du NEJM a été mis en ligne le 13 juillet 2024. Les auteurs sont des chercheurs basés en Californie. Le titre : ‘The ethics of relational AI – Expanding and implementig the Belmont principles’. Le titre évoque les principes du rapport Belmont.
Cet article est structuré autour du rapport Belmont en 1979 (suite au code de Nuremberg 1947, déclaration d’Helsinki 1964, du scandale Tuskegee 1972). Pour approfondir ces questions éthiques, je vous propose de lire l’avis 145 du CCNE (Comité Consultatif National d’Éthique pour les sciences de la vie et de la santé) dont le titre est ‘Le cadre de l’évaluation éthique de la recherche clinique — Favoriser la recherche clinique sans affaiblir la protection des personnes‘. J’ai repris en fin de billet les trois principes du rapport Belmont
Prudence avec les IA génératives
Cet article attire à nouveau l’attention sur la prudence lors de l’utilisation des IA génératives. Le NEJM a publié le 30 mai 2024 un article que nous avons commenté : le même cas clinique soumis à trois IA génératives différentes obtient des conduites à tenir divergentes. Il faut connaître l’outil utilisé et se méfier… Voie la copie-écran ci-dessus tirée de cet article du NEJM du 13 juillet 2024
L’IA doit être FAVES (fair, appropriate, valid, effective and safe)
Ces appels pour contrôler l’IA correspondent aux principes du rapport Belmont :
- La bienfaisance (beneficience) pour ne pas nuire ;
- La transparence (transparency) avec trois aspects : comment les données des patients sont utilisées, clarté sur le rôle des IA dans la décision, permettre aux régulateurs d’accéder aux algorithmes de l’IA (sic !). L’idée est-elle de penser à des consentements informés ! Faut-il l’accord du patient pour guider une stratégie diagnostique ou thérapeutique avec des IA génératives ? A construire….
- Une distribution équitable des bénéfices de l’IA parmi les populations et individus.
L’IA en santé a des potentiels pour nuire aux personnes, comme c’est le cas des produits de santé. Il faut aller vite pour réguler des entreprises qui vont supplanter les industries pharmaceutiques en terme d’influences, de profitabilité, etc….
L’article est dense, et une proposition semble raisonnable : la création d’un réseau national de centre éthiques dédiés à l’IA. Ces suggestions sont nord-américaines. En France, faut-il pousser les espaces de réflexion éthique régionaux pour s’emparer de ces thématiques ? Certains ont déjà commencé. Urgence. Sur le site de l’espace éthique IDF, on peut lire parmi les missions : ‘L’Espace de réflexion éthique a vocation à organiser des débats publics, au niveau régional, afin de promouvoir l’information et la consultation des citoyens sur les questions d’éthique dans le domaine des sciences de la vie et de la santé.’
Pour info, je copie-colle un paragraphe de l’avis 145 du CCNE, page 19 :
Après ce préalable solennel, le Rapport Belmont définit ce qu’il nomme les trois « principes éthiques de base » :
- le respect des personnes qui implique l’autonomie de celles-ci dans les décisions médicales les concernant ;
- le principe de bienfaisance (« beneficence ») dont découle l’obligation de ne pas nuire (« non-maleficence », référence au serment d’Hippocrate) et celle de maximiser les bénéfices et minimiser les risques et les désagréments dans la conduite d’une recherche clinique ;
- le principe de justice qui se traduit par l’exigence que les avancées scientifiques obtenues au terme d’une recherche bénéficient de manière égale à toutes les personnes concernées (« fairness in distribution ») en veillant en particulier à ce que les risques éventuels ne soient pas encourus par des personnes défavorisées ou vulnérables au bénéfice principal de personnes favorisées.
2 commentaires
Il faut malheureusement observer que l’IA générative reproduit des mécanismes à l’oeuvre dans le cerveau humain. Il faut donc fortement se méfier de la première comme du second. Ce qui doit être « FAVES », ce n’est pas principalement l’IA mais c’est toute la médecine, quels que soit les moyens qu’on met en oeuvre.
Si l’on demande à différents LLM de répondre à une même question, comme si l’on demande à un même LLM de répondre à différentes formulations d’une question, on obtient en effet des résultats qui peuvent diverger sur nombre de points. Dans la réalité cependant, le « bruit » (lire NOISE de Kahneman, Sibony et Sunstein) résultant de l’interrogation d’humains, même supposés experts, est généralement plus grand encore que celui que génèrent les automates.
Autrement dit : les errements cognitifs dans la décision médicale ne sont pas l’apanage de l’AI, et cette dernière est certainement appelée à en produire de moins en moins – contrairement aux humains qui paraissent bien loin de s’améliorer dans ce domaine. L’accumulation exponentielle des informations que nos cerveaux ont à connaître et à traiter devient incompatible avec leur capacité biologique, et un individu n’est déjà plus capable d’appréhender toute la complexité des données médicales à prendre en compte pour prendre une décision indiscutable concernant un malade particulier.
Le grand danger est de croire possible de s’affranchir du risque d’erreur en recourant à l’avis de l’automate. Mais le danger n’est pas moindre de croire que l’humain est moins faillible. C’est dans la coopération des moyens au service de l’esprit critique qu’il est nécessaire de recourir : coopération des humains entre eux pour décider, et avec des automates pour les éclairer.
corriger « quels que soient »
avec mes excuses