En lisant cet article passionnant, je me suis rendu compte que rarement les comités de rédaction analysaient sérieusement les images radiologiques à publier…. Le contenu de l'article est important et les images viennent illustrer… Mais que nous suggèrent ces auteurs ? Que dans au moins un quart des articles, le lecteur n'est pas certain que les images soient extraites de la population étudiée…. Cela ne m'étonne pas.
Une équipe d'auteurs grecs et américains, pilotée par J Ioannidis (celui qui pense que tous les articles sont faux..) a analysé 417 images radiologiques provenant de 212 articles publiés en 2005 par des journaux prestigieux généraux (JAMA, Lancet, NEJM) et de spécialité (dont 30 articles de Radiology). Résultats publiés en mai 2010 dans PLoS ONE. Dans 11 % des cas, aucun commentaire sur la sélection de l'image ; 9 % des images montraient le normal et l'anormal ; pour 108 sur 417, l'origine de l'image n'était pas claire : population étudiée ou autre ? De nombreuses informations, notamment quantitatives, manquaient dans toutes ces images….. Des tableaux intéressants dans cet article et surtout des suggestions pour améliorer STARD, les recommandations pour les articles diagnostiques.
Ils n'ont pas étudié la manipulation des images….Vaste sujet qui a inquiété Nature, comme rapporté dans ce blog.
Siontis GC et al. Selection and presentation of imaging figures in the médical literature. PLoS ONE 2010;5:e10888.