Rechercher
Fermer ce champ de recherche.
Rechercher
Fermer ce champ de recherche.

VIGILANCE en urgence : ChatGPT a écrit et va écrire des articles scientifiques… mais combien sans le dire ?

Points clés

arthroscopyLes articles écrits par ChatGPT, ou sur ChatGPT, sont de plus en plus nombreux. Dans la revue Arthroscopy, une courte lettre du 31 janvier 2023 a pour titre : ‘How Will Artificial Intelligence Affect Scientific Writing, Reviewing and Editing? The Future is Here…’. Pourquoi a-t-elle été acceptée et publiée ?

Un éditorial écrit par le chat GPT, mais signé par d’autres

En pratique, les auteurs ont posé la question suivante au chat ‘rédiger un éditorial d’une page pour le journal Arthroscopy en donnant un aperçu de l’effet que l’intelligence artificielle et les outils comme le chat GPT auront dans un avenir proche sur la façon dont les articles scientifiques seront rédigés et sur ce que les relecteurs et les rédacteurs devraient faire pour ajuster et maintenir les normes scientifiques élevées du journal’.

Les 5 premiers paragraphes sont la réponse de ChatGPT, et c’est convaincant. Allez les lire ! Le chat dit que ces outils d’intelligence artificielle vont être de plus en plus utilisés pour rédiger des manuscrits. Des articles ainsi écrits ont déjà été publiés en manipulant des données. Il explique que les rédacteurs doivent être vigilants car des erreurs existent dans ces textes écrits par une machine. Il espère que ces outils vont améliorer l’intégrité scientifique…  tout est restant vigilants.

ChatGPT est remercié ! Il ne doit pas être auteur

L’article a un remerciement : Chat GPT has contributed substantially to the conceptualization and drafting of this editorial.

Nous avons vu la politique éditoriale des revues du groupe JAMA : ChatGPT ne peut pas être auteur… mais combien de temps cela sera respecté ? Toutes les revues publient des news sur ce phénomène… Pour la revue Science : ChatGPT is fun, but not an author. Pour la revue Nature : Tools such as ChatGPT threaten transparent science; here are our ground rules for their use.

Bonnes réflexions dans Slate (31 janvier 2023) qui revient sur SciGen et sur un preprint de HAL assez intéressant : Can GPT-3 write an academic paper on itself, with minimal human input?

Partagez cet article sur les réseaux:
Facebook
Twitter
Pinterest
LinkedIn

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Articles populaires

Archives mensuelles

Suivez-nous

Newsletter

Inscrivez-vous à notre newsletter mensuelle

Tags

Vous pourriez aussi aimer