C'est une lettre publiée dans JAMA Internal Medicine le 27 juillet 2020 (Characteristics and Strength of Evidence of COVID-19 Studies Registered on ClinicalTrials.gov). Ces auteurs américains ont cherché les études enregistrées dans le registre ClinicalTrials.gov et recherché les niveaux de preuve attendus, avec une méthode '2011 Oxford Centre for Evidence-Based Medicine' (OCEBM).
"We identified 1551 studies registered from March 1, 2011, to May 19, 2020, meeting inclusion criteria: 911 (58.7%) interventional (including 664 randomized clinical trials [RCTs]) and 640 (41.3%) observational studies; 1180 (76.1%) were single center."
Voici la figure ci-contre, et le début de la discussion : "Bien que quelques grands essais multicentriques puissent générer des preuves de haute qualité, la grande proportion d'études dont on attend un faible niveau de preuves est préoccupante. La diffusion rapide d'études dont les preuves sont de faible qualité peut influencer l'opinion publique, les actions gouvernementales et la pratique clinique de manière potentiellement néfaste, surtout avec la marée montante de la diffusion des études COVID-19 via les preprints ou d'autres stratégies en amont de l'évaluation par les pairs."
L'éditorial du même numéro (Setting Expectations for Clinical Research During the COVID-19 Pandemic) insiste sur la mauvaise qualité des études cliniques en cours dans la COVID-19 : moins d'un tiers apporteront une preuve scientifique…. et encore, ce sont des études dont le protocole a été enregistré. Il y a beaucoup d'études sans enregistrement d'un protocole… et combien d'études resteront sous forme de preprint car les revues n'en voudront pas ! Que de gaspillage !
2 commentaires
Bonjour,
je ne suis pas sûr de comprendre le constat établi par le JAMA tel que vous le rapportez ci-dessus : l’auteur de la lettre déplore-t-il seulement l’état des lieux en matière de rigueur méthodologique et d’éthique de l’édition médicale et scientifique ou va-t-il plus loin en avançant, tout en le regrettant, qu’il ne pouvait en être autrement ?
Si 1 : cela conforte vos analyses, et contribue sans doute à les compléter, les prolonger sur certains points. C’est fort utile et nécessaire mais reste peut-être dans une vision du domaine qui ne prend pas assez en compte les spéculations et calculs des différents éditeurs et des auteurs.
si 2 : c’est embêtant : s’il ne pouvait en aller autrement, on pourrait-être tenté, soit par le cynisme (être plus malin que les autres; et Dieu,sous quelque nom qu’il se présente, reconnaitra les siens) soit par le retrait -austère ou jouissif- de toute action. Mais qu’est-ce à dire qu’il aurait pu se faire qu’il n’aurait pu y en aller autrement ? (ouf !). C’est ici qu’il convient peut-être de tenir compte des spéculations (et désirs) des acteurs affectant leurs stratégies de recherche et de publication.
Autrement dit et pour être moins filandreux : si l’on sait, ou fait le pari (?), que les études ne seront de toute façon pas conclusives, comment agit-on ?
Merci pour votre commentaire.
Effectivement, ce qui est gênant, c’est que ce constat a été fait à partir des protocoles, avant de faire les essais, et non pas sur des articles publiés.
Faire de bonnes études nécessite au minimum un grand nombre de malades, des collaborations (comme l’essai anglais avec 176 hôpitaux), et si possible des critères de jugement comparables entre les essais.
Trop d’essais sont faits par des petites équipes qui travaillent seules..
Cdlmt