La marée 'Facteur d'impact' devrait se retirer très lentement, et ce chemin est inéluctable. Un manuscrit déposé début octobre 2020 sur F1000Research va dans ce sens, avec des données objectives. L'Université de Bern a signé DORA en 2016.. et voudrait mettre en oeuvre ce qu'elle a signé ! D'autres signataires de DORA ne font rien…
Ces auteurs ont analysé 1 525 articles soumis par 64 candidats à une promotion académique, et montré une mauvaise corrélation entre le facteur d'impact de Clarivate Analytics et les RCR des National Institutes of health, USA, créés en 2016. C'est une mesure de l'impact des citations au niveau de l'article, qui compare les citations de l'article avec les articles du réseau d'articles co-cités. Le RCR est comparé à la recherche financée par les National Institutes of Health (NIH) : un article avec un RCR égal à 1,0 est à la médiane des articles financés par les NIH cette année. Les NIH donnent accès au RCR et au percentile des articles indexés dans la base de données bibliométriques PubMed sur un site web. La description du RCR est dans PLOS Biology. Le site iCite est d'accès libre.
En pratique, des articles, quelle que soit la revue, peuvent avoir un impact important sur la recherche. Ce n'est pas la première recherche qui arrive à cette conclusion, et la discussion de cet article commence ainsi :
Whereas the majority of the papers submitted by candidates for the habilitation or an associate professorship were, by university regulation, published in journals with a JIF that ranked in the upper third of its field, only about 40% of these papers had an RCR percentile in the upper third. Furthermore, 20–25% of the papers that did not meet the requirement for the JIF rank (below 0.66) were, in fact, more impactful than their peers in the co-citation network. Our study thus confirms the findings of the RCR developer’s analysis of 80,000 papers: “Though journals with the highest impact factors have the highest median RCR, influential papers can be found in virtually all journals”. Unsurprisingly, the correlation between the journal-based measure, the JIF, and the article-based measure, the RCR, was weak.
Un commentaire
Intéressant … Question : vu le nombre de revues prédatrices, il va bien falloir continuer à calculer les indicateurs sur une sélection et donc se mettre d’accord sur quelles revues sont dedans, lesquelles sont dehors et sur quels critères, non ?