C’est un billet du 17 septembre 2023 sur Scholarly Kitchen qui commence ainsi :
Until recently, MDPI and Frontiers were known for their meteoric rise. At one point, powered by the Guest Editor model, the two publishers combined for about 500,000 papers (annualized), which translated into nearly USD $1,000,000,000 annual revenue. Their growth was extraordinary, but so has been their contraction. MDPI has declined by 27% and Frontiers by 36% in comparison to their peak.
IJERPH a entrainé MDPI…
Histoire compliquée et billet bien documenté. Rappelons que, comme Oncotarget il y a quelques années, une méga-revue de MDPI a très logiquement perdu son facteur d’impact. Cela a réveillé quelques responsables qui ont réalisé que le modèle des revues de faible qualité mettait en péril la gestion des savoirs… et c’est inquiétant ! La revue délistée par WoS était la plus grande revue MDPI : International Journal of Environmental Research and Public Health (IJERPH).
Frontiers aurait dû bénéficier des malheurs de MDPI
Pour IJERPH, vous pouvez consulter toutes les stats… à croire sur l’image ci-dessus que cette revue a été achetée par Elon Musk. La perte du facteur d’impact en mars 2023 a fait tomber les soumissions…. la courbe impressionnante est sur le billet de Scholarly Kitchen ! De façon surprenante, Frontiers a baissé son nombre de soumissions, alors que l’on aurait pu penser que Frontiers allait bénéficier de la baisse de MDPI. Le billet de Scholarly Kitchen est excellent. Il montre que Frontiers dépend beaucoup de la Chine.
Est-ce que les chercheurs deviennent raisonnables ? Pas sûr… demain nous évoquerons le cas d’un président de CNU qui est rédacteur en chef d’une revue MDPI : ETONNANT !
Les listes de revues de Sorbonne Université proposent aux CNUs de ne pas considérer les articles publiés en peu de semaines dans des revues de faible qualité. Les CNUs râlent et hésitent lors de l’examen des dossiers car des candidats pourraient être rétrogradés…. ce qui ne semble pas toujours plaire. Je croise encore des experts qui se qualifient le groupe PLOS de prédateurs et se plaignent des APCs de Springer et Elsevier (qui sont élevés)… et qui kiffent avec ces revues mercantiles de faible qualité…. sans aucun lien avec des Sociétés savantes. La gestion des savoirs n’est plus l’apanage de la communauté académique.
5 commentaires
Je vais faire l’avocat du diable. Vous plaidez, à juste titre, les revues de qualité. Mais de quels moyens sommes-nous en possession pour mesurer cette qualité ? DOAJ ? les revues de MDPI et de Frontiers sont dedans. Les black- ou whitelists qui prolifèrent et qui sont basées sur les critères complétement obscures non formalisés et non publiés ?
Interrogez un chercheur biomédical, il vous dira : le facteur d’impact ! Nonobstant tout ce qu’on sait sur ses défauts, il n’en reste pas moins que nous avons un outil disponible, basé sur une liste des critères formellement définis, analysés et suivis par une équipe des professionnels s’appuyant sur des bases techniquement solides.
Bonjour,
vos commentaires sont recevables. On pourrait éventuellement donner du crédit aux Sociétés savantes… car MDPI n’a pas de revues endossées par des Sociétés savantes ; par contre Frontiers a un programme pour attirer des Sociétés savantes.
Avoir un facteur d’impact n’est pas très compliqué : ce sont 24 ou 28 critères à remplir. Et Clarivate a dû attribuer des facteurs d’impact à 9 000 nouvelles revues, essentiellement dans le domaine HHS qui ne s’en sert pas.
Les témoignages sur les dysfonctionnements de ces revues de faible qualité sont nombreux : je ne peux rapporter le nom de cet expert connu qui fait un reviewing et demande formellement de refuser un article … qui est publié trois jours plus tard ; un collègue me passe fièrement un article dans une de ces revues et compte tenu que je le trouve médiocre, je lui demande comment s’est passé le peer review et il me répond : ‘Ils n’ont pas trouvé de reviewer, et le rédacteur en chef a fait une relecture rapide… alors qu’il ne connait pas le sujet’ ; etc…
Cdlmt
A partir du moment où on voit qu’un article de recherche biomédical met à peine 3-4 semaines entre le moment où il est soumis et le moment où il est publié (je dis bien publié, pas accepté), avec révision incluse, il y a de quoi nourrir quelques doutes.
Il est souvent mention d’une certaine naïveté de la part de nos collègues sur le blog, mais il est évident qu’il s’agit d’une fausse naïveté. Tout le monde est bien content de pouvoir publier tout et n’importe quoi, du moment qu’on paye, et tant pis si on scie la branche sur laquelle on est assis.
Bonjour,
vous avez certainement raison : des chercheurs se reprochent parfois ces comportements faciles… mais ils préfèrent se taire et en profiter.. payer est simple pour aller vite Publish and Perish ne rime pas avec qualité….
Cdlmt
Il existe une solution simple pour évaluer les articles et les chercheurs dans les commissions diverses : lire les articles. Faire une évaluation qualitative et non quantitative.
Bien sûr, ça prend du temps ! Effectivement, je n’a pas vu beaucoup de collègues le faire dans les diverses commissions et comités dans lesquels j’ai siégé… Allez tous lire ce papier paru l’an dernier dans Nature (Doi : 10.1038/s41586-022-05030-3) et dites-moi si vous pensez, comme les auteurs que « The therapeutic effectiveness of cold exposure is at least equivalent to most available anticancer drugs ». Evaluation quantitative : c’est bien puisque c’est paru dans Nature (IF = 69,5). Evaluation qualitative : c’est de la fake science. Heureusement, ce ne sont pas des auteurs français…