Recherche
La récente étude indique que ChatGPT ne prend pas en compte les rétractations et les erreurs d’articles lorsqu’il sert à éclairer les revues de littérature.
Co-écrite par le professeur Mike Thelwall et le Dr Irini Katsirea, cette recherche, issue d’un projet lancé en octobre 2024, a porté sur 217 articles académiques avec des scores altmétriques élevés.
Malgré une évaluation répétée par ChatGPT, aucun des rapports produits n’a mentionné les rétractations ou les erreurs significatives des articles.
Au contraire, 190 articles ont reçu des évaluations comparables à celles d’études de haute qualité, et les critiques des articles les moins bien notés portaient uniquement sur leur aptitude académique.
Les résultats soulignent l’importance de vérifier les informations fournies par les modèles de langage lors de la recherche académique.
Le professeur Thelwall a exprimé ses inquiétudes quant à l’incapacité de ChatGPT à détecter des recherches rétractées et a appelé à des améliorations dans le développement de ces systèmes.
L’étude avertit également les utilisateurs de la prudence à avoir envers les systèmes d’IA génératifs, même lorsqu’ils semblent fournir des informations fiables.