Non classé

Pourquoi la solution d’OpenAI contre les hallucinations de l’IA mettrait fin à ChatGPT demain

Publié

on

Le dernier rapport d’OpenAI explore les raisons des « hallucinations » des modèles de langage, qui consistent à fournir des informations erronées.

Il démontre, à l’aide de méthodes mathématiques, que ces erreurs ne sont pas simplement des conséquences malheureuses de l’apprentissage des IA, mais plutôt des résultats inévitables liés à leur méthodologie de prédiction.

Même avec des données parfaites, les systèmes d’IA génèrent des erreurs, et la façon dont ils répondent aux questions facilite encore ces hallucinations, surtout lorsque les modèles sont moins exposés à certaines informations lors de leur formation.

Pour résoudre ce problème, OpenAI propose d’incorporer une évaluation de la confiance dans les réponses des IA, incitant ainsi celles-ci à indiquer leur incertitude plutôt que de fournir une réponse assurée.

Cependant, cette approche pourrait détériorer l’expérience utilisateur, car les consommateurs préfèrent des réponses rapides et fiables, même si elles sont parfois erronées.

En fin de compte, les incitations économiques actuelles privilégient des systèmes donnant des réponses confiantes.

Ainsi, tant que ces incitations ne changent pas, les hallucinations risquent de persister dans les applications grand public.

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Populaires

Quitter la version mobile