Pourquoi la folie du facteur d’impact persiste ? Une épidémie qui associe la valeur d’une recherche à la notoriété de la revue..

Points clés

MBioA Casadevall et FC Fang, biologistes de New York, ont défrayé la chronique par 2 excellents articles repris par le New york TImes en avril 2012 sous le titre "La science est pourrie". Sur ce blog, nous avons plusieurs fois constaté que la science était pourrie

Eh bien, ces auteurs récidivent en évoquant la folie autour du facteur d'impact dans un article de mars/avril 2014 dans mBio. mBio est une bonne revue Open access de American Society for Microbiology, et A Casdevall en est le rédacteur en chef. L'article a 4 parties :

  • Causes of impact factor mania : bien sûr la compétition pour les carrières et le financement de la recherche, mais aussi la rareté des indicateurs pour évaluer la recherche, l'hyperspécialisation de la science, les bénéfices des revues, etc…  Ils concluent : "Impact factor mania persists because it is useful to certain scientists, certain journals, and the bureaucracy of science, particularly in certain nations";
  • Problems with impact factor mania : une distorsion de l'entreprise science qui dépend de quelques revues, l'impact de certaines découvertes passe inaperçu, des bonnes recherches ne sont plus financées, mauvaise corrélation entre le facteur d'impact des revues et la qualité des recherches, la taux de citation est un drôle d'indicateur, des incitatifs pervers,…
  • Proposals for reform : bien sûr, ils insitent sur le mouvement DORA qui suggère d'abandonner le facteur d'impact pour évaluer la recherche, et ils soutiennent l'initiative du prix novel Randy Schekman qui propose un boycot de Nature, Cell et Science ; R Schekman est le rédacteur en chef de eLife….
  • What scientists can do : revoir les critères pour les promotions et le financement de la recherche, utiliser d'autres indicateurs, augmenter les interactions entre disciplines, que les revues de bon niveau soient mins exclusives, retrouver les valeurs scientifiques essentielles…

La dernière phrase fait peur : "Impact factor mania will continue until the scientific community makes a concerted effort to break this destructive behavior"

Casadevall A, Fang FC. Causes for the persistence of impact factor mania. mBio vol 5, issue 2

 

Partagez cet article sur les réseaux:
Facebook
Twitter
Pinterest
LinkedIn

Un commentaire

  • J’ai lu l’article de Casadevall et Fang avec intérêt, car on y apprend des choses. Je ne savais pas que Science est classé 20ème pour son « impact ». Je pensais qu’il était dans les cinq premiers. L’acronyme « CNS » doit donc être banni.
    Pour ce qui est de la persistance du facteur d’impact, je crois qu’on peut déplacer un peu la question, et s’interroger plutôt sur son succès. Beaucoup a déjà été dit à ce sujet, mais je voudrais signaler deux points:
    1) C’est un facteur très simple à calculer, et le résultat est numérique et sans unités de mesure. C’est parfait pour « classer ». Trop parfait même, puisqu’au moins un journal a un facteur d’impact infini, et un nombre considérable de revues ont un impact nul. Or, si l’intervalle de mesure est infini, le résultat n’a plus d’intérêt…
    2) La dénomination « Facteur d’impact » a énormément joué pour son succès. Je ne sais pas qui, de E. Garfield ou Thomson Reuters, l’a nommé ainsi, mais le résultat est là: le chercheur voit un « impact », un coup de poing, et parfois un coup de poignard dans le dos des collègues (situation extrême, certes, mais qui doit bien se présenter de temps en temps dans les dossiers de promotion). Or, ce critère numérique ne mesure absolument pas l’influence ou le prestige d’un journal, qui sont des notions très subjectives, et difficilement mesurables. Dire que « Nature » est un journal plus prestigieux que « Physical Review » est aussi bête que prétendre que « Le Monde » est mieux que « Pif gadget » (car c’est justement l’inverse. Hahaha !).
    Mais le vent tourne. Il y a quelques années, il était amusant de voir les chercheurs essayer de trouver sur internet cette fichue liste des facteurs d’impact, car c’était alors un secret bien gardé par Thomson Reuters, pour des raisons économiques tout à fait louables. Je me souviens en particulier d’un directeur de fac, qui nous envoya triomphalement par email un énorme fichier excel, probablement acquis d’une manière que la morale réprouve, contenant les facteurs d’impact de dizaines de milliers de revues. Un erratum suivit d’ailleurs de près, pour signaler que le fichier était périmé depuis 5 ans. Mais à présent, ce qui compte, c’est le H-index. Et il est tout aussi amusant d’épier les collègues qui suent sang et eau pour essayer de citer le papier qui se trouve juste sous la barre, à H-1 ou H-2, même s’il n’a aucun rapport avec les travaux en cours (ou pire, s’il s’est avéré depuis que le contenu du dit papier se basait sur un artefact, et que les résultats n’ont jamais été reproduits). Mais bon, peu importe la manière, pourvu qu’on incrémente son H d’une unité.
    Curieusement, le détournement du H-index va dans le sens opposé de celui qu’on a vu pour le facteur d’impact. Le H-index, prévu initialement pour « indexer » un chercheur, est à présent calculé pour un institut, une université, voire un pays tout entier (si si !).
    Et la Science dans tout ça ?

    Répondre

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Articles populaires

Archives mensuelles
Suivez-nous
Newsletter
Inscrivez-vous à notre newsletter mensuelle

Tags

Vous pourriez aussi aimer