Un nouvel indicateur des taux de citations, au niveau de l’article et non de la revue : testez iCite avec votre nom !

Un article complexe de 25 pages (sans compter tous les suppléments électroniques) a été publié en septembre 2016 dans PLOS Biology, bonne revue du groupe PLOS, avec pour titre "Relative citation ratio (RCR): a new metric that uses citation rates to measure influence at the article level'. L'article est difficile à lire, et je retiens :

  • c'est un énorme programme des NIH (National Institutes of Health), Bethesda, USA, signé par 'Office of portfolio analysis', et 'Division of program coordination, planning and strategic initiatives ;
  • Dans le résumé : We describe here an improved method to quantify the influence of a research article by making novel use of its co-citation network to field-normalize the number of citations it has received. Article citation rates are divided by an expected citation rate that is derived from performance of articles in the same field and benchmarked to a peer comparison group. The resulting Relative Citation Ratio is article level and field independent and provides an alternative to the invalid practice of using journal impact factors to identify influential papers.
  • L'article apporte des données à partir de 88 000 articles, complexe, mais pas mal…
  • et surtout, allez tester votre nom, et vous verrez….   https://icite.od.nih.gov/analysis

Le vieux facteur d'impact de Thomson Reuters est décevant car il a été détourné de ses objectifs pour en faire un indicateur d'évaluation des carrières et d'allocation de ressources. Vieux car créé dans les années 60s, décevant car il a été manipulé par les revues et les évaluateurs….   et qui devrait évoluer car nous recevons des emails signés par le nouveau propriétaire, à savoir Clarivate Analytics (adresses à Philadelphie, Londres, Tokyo, Singapore). D'ailleurs, ils viennent d'envoyer des emails par erreur à de nombreux auteurs en les félicitant pour leurs citations !!!!

Tous les Altmetrics divers qui ont été proposés ne semblent pas convaincants : il y en a trop, et on ne sait pas bien si mesurer les tweets, les réseaux sociaux, etc… est un indicateur de qualité des articles !

Le mouvement DORA est la meilleure initiative depuis 2013, mais n'avance pas vite…   

Partagez cet article sur les réseaux:
Partager sur facebook
Facebook
Partager sur twitter
Twitter
Partager sur pinterest
Pinterest
Partager sur linkedin
LinkedIn

3 commentaires

  • Bonjour Hervé
    Ce qui est incroyable avec ces mesures de facteurs d’impact est l’absence de prise en compte du travail réellement fait pour publier un papier. Un auteur parasite que je connais est systématiquement enmbarqué dans des publications à cause de sa position académique. Il a donc un meilleur facteur d’impact qu’un autre qui publie systématiquement des données originales. L’ordre des auteurs n’a finalement plus aucune importance et il est plus important de participer facticement à une publication que de travailler sur le fond des dossiers et publier de la recherche originale.
    Avec l’ancien facteur d’impact ou H-facteur (Moribond ?), l’écart est beaucoup moins important.

    Répondre
  • Bonjour,
    merci pour ce commentaire et bien d’accord. C’est proche d’une réflexion que j’ai entendue aux USA : vous êtes un innocent, dans notre université, nous ne nommons que des candidats qui ont des résultats dits positifs… Avoir des résultats négatifs sur un CV n’est pas très intéressant
    Cordialement

    Répondre

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Articles populaires

Archives mensuelles

Suivez-nous

Newsletter

Inscrivez-vous à notre newsletter mensuelle

Tags

Vous pourriez aussi aimer