Bel article, dont l'auteur principal est à Paris, dans le JAMA en mars 2016 avec le titre "Evolution of Reporting P Values in the Biomedical Literature, 1990-2015" (accès libre), et un éditorial intitulé "The enduring evolution of the P-value".
Le premier auteur de cet article sous l'égide de l'équipe de JPA Ioannidis (METRICS), s'appelle David Chavalarias, et son affiliation est : Centre d’Analyse et de Mathématiques Sociales (CAMS), EHESS–CNRS UMR8557 and Complex Systems Institute of Paris Île-de-France (ISC-PIF, UPS3611), Paris, France. L'article est très détaillé et mérite réflexion, surtout pour le non-statisticien. La conclusion ;"Entre 1990 et 2015, dans MEDLINE, le taux d'abstracts et articles avec des P-values a augmenté, de même le taux d'articles avec des résultats statistiquement significatifs a augmenté. Peu d'articles mentionnent les intervalles de confiance, les facteurs Bayesiens, et les tailles d'effets." L'article est très détaillé, et contient de nombreuses informations. L'analyse a été faite à partir de plus de 4,5 millions de P-values contenues dans 1,6 millions d'abstracts de MEDLINE, et de 3,4 millions de P-values contenues dans 0,4 millions d'articles (full-text) dans PMC (PubMed Central). C'est énorme ! Ce qui est ennuyeyx, c'est de voir que 96 % des abstracts et articles avec des P values avaient au moins un résultat "statistiquement significatif" avec beaucoup de P values autour de 0,05 at 0,001. En bref, 96 % des expériences scientifiques 'marchent'… est-ce que cela représente 'la science' ? Est -ce que des articles seraient 'embellis' ?
De manière concommittante, Nature du 7 mars 2016, a publié une news "Statisticians issue warning over misuse of P values. Policy statement aims to halt missteps in the quest for certainty". C'est l'American Statistical Association qui a émis une recommandation avec 6 principes :
- P-values can indicate how incompatible the data are with a specified statistical model.
- P-values do not measure the probability that the studied hypothesis is true, or the probability that the data were produced by random chance alone.
- Scientific conclusions and business or policy decisions should not be based only on whether a p-value passes a specific threshold.
- Proper inference requires full reporting and transparency.
- A p-value, or statistical significance, does not measure the size of an effect or the importance of a result.
- By itself, a p-value does not provide a good measure of evidence regarding a model or hypothesis.


