COVID-19 : des articles très cités vont booster les facteurs d’impact des revues… magouilles ?

QSS IF VariabilityIl s'agit d'un article de 25 pages très complet avec des analyses complexes publié le 25 juin 2020. Je n'ai pas pu suivre toutes les équations, mais des tableaux faciles à comprendre sont intéressants. Cet article a été publié par une nouvelle revue QSS (Quantitative Science Studies), publiée par MIT Press Journals. Les deux premiers numéros sont très bons.

Des milliers de revues chaque année ont des variations de leur facteur d'impact liées à quelques articles : Qu'en sera-t-il pour International Journal of Antimicrobiol Agents, revue contrôlée par l'IHU de Marseille, dont le facteur d'impact est de 4,621 ? Cette revue a publié un article qui devrait être rétracté (Gautret et al.Hydroxychloroquine and Azithromycin as a Treatment of COVID-19: Results of an Open-Label Non-Randomized Clinical Trial). Cet article a été cité plus de 1 500 fois entre le 20 mars et le 4 juillet 2020…. parfois pour dire qu'il était très mauvais….  Il va fortement faire augmenter le facteur d'impact de la revue qui l'a accepté ! Ce système est parfois une prime à des articles inutiles.

Les données originales de cet article de QSS ont été déposées dans Figshare et sont disponibles… Contrairement à l'article de Gautret et al qui est contesté, mais dont les données sources n'ont jamais été communiquées ! ETONNANT ! NON

J'ai traduit le résumé : Nous étudions comment un seul article affecte le facteur d'impact (FI) d'une revue en analysant les données de 3 088 511 articles publiés dans 11639 revues dans les 2017 Journal Citation Reports de Clarivate Analytics. Nous avons constaté que les FI sont très volatiles. Par exemple, l'article le plus cité de 381 revues a entraîné une augmentation de plus de 0,5 point de leur IF, tandis que pour 818 revues, l'augmentation relative a dépassé 25 %. Une revue sur dix a vu son FI augmenter de plus de 50 % grâce aux trois articles les plus cités. Comme l'effet d'un seul article sur le FI est inversement proportionnel à la taille de la revue, les petites revues sont beaucoup plus fortement récompensées que les grandes revues pour les articles fortement cités, tandis qu'elles sont davantage pénalisées pour les articles peu cités, surtout si leur FI est élevé. Ce mécanisme de récompense faussé incite les revues à FI élevé à rester petites pour rester compétitives dans les classements. Nous discutons des implications pour les articles de rupture publiés dans des revues prestigieuses.Nous mettons en doute la fiabilité des classements lié au FI étant donné la sensibilité élevée du FI à quelques articles qui affecte des milliers de revues.

PS : je remercie Y Gingras qui m'a transmis cet article QSS

Partagez cet article sur les réseaux:
Partager sur facebook
Facebook
Partager sur twitter
Twitter
Partager sur pinterest
Pinterest
Partager sur linkedin
LinkedIn

4 commentaires

  • Non, pas de magouille: c’est juste l’application du calcul du facteur d’impact (si magouilles il y a, c’est plus sur le décompte du numérateur et du dénominateur des JIF publiés par Clarivate, vu que leurs bases de données ne sont pas disponibles).
    En fait, un des « drames » du JIF, c’est son nom: c’est un indice qui ne quantifie absolument pas l’impact d’un journal (et encore moins d’un article), mais qui mesure la moyenne du taux de citation de l’ensemble des articles publiés dans un certain journal, sur une certaine unité de temps. Il faut pas aller chercher plus loin.
    Quantifier l’impact d’un journal est sans doute possible, mais sûrement pas avec une formule aussi ridiculement simpliste que JIF = A/B. Si c’était aussi simple, alors on pourrait aussi bien décrire toute la physique quantique avec E = hv.

    Répondre
  • Bonsoir
    OUI, le mot magouilles n’est pas approprié.. Merci pour votre commentaire. Nous n’en avons pas terminé avec tous ces problèmes liés à cet indicateur !!
    Cdlmt

    Répondre
  • Le plus simple serait peut-être…. de supprimer tous ces indices ! Finalement, ce qui fait la qualité d’une revue, c’est la qualité intrinsèque des articles qu’elle contient, et pour connaître cette qualité, il n’y a pas de solution miracle : il faut les lire. Nous connaissons tous de très bons articles dans des revues modestes et de mauvais articles dans de grandes revues, cas pour lesquels l’IF nous aurait trompé.
    En créant ces indices on a changé le focus du métier de chercheur : au lieu de faire de bons articles basés sur de la bonne science, on cherche à optimiser l’IF. Ce n’est sans doute pas une bonne façon d’utiliser l’argent publique.

    Répondre
  • Vous avez parfaitement raison. Cela fait 10 voire 20 ans que beaucoup d’experts savent qu’il vaudrait mieux lire les articles que les compter. MAIS rien ne change… Peut-être parce que ceux qui sont responsables ne désirent pas que leurs articles soient lus !! Hypothèse seulement
    Cdlmr

    Répondre

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Articles populaires

Archives mensuelles

Suivez-nous

Newsletter

Inscrivez-vous à notre newsletter mensuelle

Tags

– –

Vous pourriez aussi aimer

quis nunc dapibus ultricies neque. lectus amet, dolor ante.