Recherche

La récente étude indique que ChatGPT ne prend pas en compte les rétractations et les erreurs d’articles lorsqu’il sert à éclairer les revues de littérature.

Publié

on

Une étude récente a analysé comment ChatGPT, un modèle de langage, évalue la qualité des articles académiques, en particulier ceux qui ont été rétractés ou critiqués.

Co-écrite par le professeur Mike Thelwall et le Dr Irini Katsirea, cette recherche, issue d’un projet lancé en octobre 2024, a porté sur 217 articles académiques avec des scores altmétriques élevés.

Malgré une évaluation répétée par ChatGPT, aucun des rapports produits n’a mentionné les rétractations ou les erreurs significatives des articles.

Au contraire, 190 articles ont reçu des évaluations comparables à celles d’études de haute qualité, et les critiques des articles les moins bien notés portaient uniquement sur leur aptitude académique.

Les résultats soulignent l’importance de vérifier les informations fournies par les modèles de langage lors de la recherche académique.

Le professeur Thelwall a exprimé ses inquiétudes quant à l’incapacité de ChatGPT à détecter des recherches rétractées et a appelé à des améliorations dans le développement de ces systèmes.

L’étude avertit également les utilisateurs de la prudence à avoir envers les systèmes d’IA génératifs, même lorsqu’ils semblent fournir des informations fiables.

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Populaires

Quitter la version mobile