Rechercher
Fermer ce champ de recherche.
Rechercher
Fermer ce champ de recherche.

Les initiatives pour la reproductibilité des données au congrès mondial sur l’intégrité de la recherche

Points clés

AmsterdamBonne session sur la reproductibilité lors de la 5ème WCRI à Amsterdam avec 3 orateurs prestigieux. Quelles sont les causes pour expliquer la mauvaise reproductibilité ? Existe-t-il réellement une crise de reproductibilité ? Des solutions ???

  • D Fanelli a remplacé JPA Ioannidis, empêché de venir à Amsterdam. Conférence avec des exemples expliquant la mauvaise reproductibilité. D'abord la sélection des données publiées est évidente en regardant les méta-analyses. Des exemples de petites études légèrement positives avec une étude plus large ‘négative’. Il est possible de montrer qu’en rajoutant de la littérature grise, les conclusions peuvent changer…  Les biais ne sont pas tous dûs aux pratiques préjudiciables en recherche ; D Fanelli a repris un preprint, non reviewé, qui en est à sa troisième version ; peut-être faut-il accepter de ne pas publier toutes les études négatives ! Le titre de ce preprint qui a été déposé sur PeerJ "A mathematical theory of knowledge, science, bias and pseudoscience. Article avec des formules mathématiques !!!!
  • Sowmya Swaminathan, Head of Editorial Policy, Nature and Nature Journals (Springer Nature), a exposé les politiques du groupe pour améliorer les critères permettant de reproduire des expériences publiées. Le modèle Registered Reports adopté par des revues BMC. Le groupe a quatre niveaux proposés aux revues du groupe en ce qui concerne l'archivage des données sources : Type 1 "Data sharing and data citation is encouraged", Type 2 "Data sharing and evidence of data sharing encouraged", Type 3 "Data sharing encouraged and statements of data availability required", Type 4 "Data sharing, evidence of data sharing and peer review of data required". Il y a des exemples de revues pour chaque type.
  • Brian Nosek a insisté sur plusieurs points : les recommandations TOP (Transparency and Openess Promotion), le modèle Registered Reports, et les difficultés pour enregistrer les protocoles. Les incitatifs des chercheurs sont de publier, pas de faire des trucs vrais. Il y a des conflits d'intérêts psychologiques : ce qui est bon pour moi, le chercheur, versus ce qui est bon pour la science. Nous avons besoin d'un guide pour le jardin d'enfants de la recherche : montrez votre travail et partagez ! C'était une bonne présentation du Center for Open Science (Charlottesville, USA).
Partagez cet article sur les réseaux:
Facebook
Twitter
Pinterest
LinkedIn

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Articles populaires

Archives mensuelles

Suivez-nous

Newsletter

Inscrivez-vous à notre newsletter mensuelle

Tags

Vous pourriez aussi aimer