Non classé
Pourquoi la solution d’OpenAI contre les hallucinations de l’IA mettrait fin à ChatGPT demain
Il démontre, à l’aide de méthodes mathématiques, que ces erreurs ne sont pas simplement des conséquences malheureuses de l’apprentissage des IA, mais plutôt des résultats inévitables liés à leur méthodologie de prédiction.
Même avec des données parfaites, les systèmes d’IA génèrent des erreurs, et la façon dont ils répondent aux questions facilite encore ces hallucinations, surtout lorsque les modèles sont moins exposés à certaines informations lors de leur formation.
Pour résoudre ce problème, OpenAI propose d’incorporer une évaluation de la confiance dans les réponses des IA, incitant ainsi celles-ci à indiquer leur incertitude plutôt que de fournir une réponse assurée.
Cependant, cette approche pourrait détériorer l’expérience utilisateur, car les consommateurs préfèrent des réponses rapides et fiables, même si elles sont parfois erronées.
En fin de compte, les incitations économiques actuelles privilégient des systèmes donnant des réponses confiantes.
Ainsi, tant que ces incitations ne changent pas, les hallucinations risquent de persister dans les applications grand public.