Je suis émerveillé par ce que je vois apparaître avec l’IA (Intelligence Artificielle), et en particulier en suivant la littérature. Mais la prudence s’impose. Nous avons vu qu’il y a en médecine quelques sources à suivre régulièrement.
Responsible and evidence-based AI: 5 years on
C’est le titre d’une opinion dans The Lancet Digital Health de mai 2024. J’ai repris ci-joint les deux citations en début de ce commentaire de deux pages écrit par deux chercheurs de Birmingham, UK.
Cet éditorial constate que parmi les publications sur l’AI, il y a très peu de recherches de qualité, peu d’essais comparatifs.. et qu’il faudra bien des preuves avant de disséminer ces outils. La plupart des publications sont des commentaires, des observations (par exemple l’article ci-dessous du NEJM). Il faudrait, pour les AI utilisées en médecine, que des agences d’évaluation puissent réguler ce marché, par exemple FDA aux Etats-Unis. S’il faut des essais et des évaluations, il faudra des ressources. Je cite : Notre approche de l’évaluation et de la réglementation doit rester solide, centrée sur le patient et fondée sur des données probantes, alors que nous travaillons ensemble pour garantir que les patients puissent bénéficier de produits sûrs, efficaces, équitables et durables.
L’IA médicales et les valeurs humaines
C’est le titre d’une revue de littérature dans le NEJM le 30 mai 2024. La littérature sur les usages de l’IA en médecine évolue très vite et les publications sont de plus en plus nombreuses. Cet article questionne l’IA médicale et les valeurs humaines, notamment selon les concepteurs de l’outil. Dans cet article, il y a un cas clinique d’un enfant soumis à trois IA avec trois réponses, selon que l’IA a été entraînée par des médecins spécialistes, par des compagnies d’assurance ou par les parents. Les réponses varient beaucoup selon l’outil utilisé.
L’adaptabilité des résultats du modèle est une caractéristique souhaitable de ces modèles, mais elle soulève plusieurs questions. Quelles valeurs un modèle d’IA donné reflète-t-il ? Les modèles d’IA faciliteront-ils une prise de décision rationnelle reflétant les valeurs du patient ou celles d’autres parties ? Comment les forces financières influenceront-elles la création et l’utilisation de ces modèles en médecine ? Dans quelle mesure un modèle d’IA doit-il être orientable lorsqu’il est utilisé par un médecin pour une évaluation et un plan de traitement ? Les apprentissages de l’IA par renforcement à psartir du retour d’information humain sont utilisés pour modifier, souvent en profondeur, le comportement du modèle linguistique. Est-ce que ces outils devront intégrer les valeurs du patient et comment afin d’assister les médecins ?
Le message de cet article : Un large modèle linguistique répondra différemment en fonction de la manière exacte dont la requête est formulée et de la façon dont le modèle a été dirigé par ses concepteurs et ses utilisateurs. La prudence est de mise lorsque l’on envisage d’utiliser les résultats d’un modèle pour prendre des décisions.