Non classé

Une nouvelle approche permet à l’IA d’apprendre à reconnaître l’incertitude.

Publié

on

Une équipe de chercheurs de Johns Hopkins a proposé une nouvelle approche pour améliorer la précision des modèles d’intelligence artificielle (IA) dans des contextes sensibles, tels que la médecine et le droit.

Au lieu de fournir des réponses potentiellement incorrectes, cette méthode permet aux modèles de signaler des incertitudes en utilisant un score de confiance.

Les chercheurs ont expérimenté la génération de chaînes de raisonnement de différentes longueurs pour des problèmes mathématiques complexes, montrant que le temps de réflexion supplémentaire peut renforcer à la fois la précision et la confiance des réponses, bien que cela puisse aussi conduire à des erreurs si des pénalités ne sont pas appliquées.

L’équipe a identifié trois types de cotes pour encourager des réponses précises et réduire celles qui le sont moins, en suggérant qu’un modèle devrait souvent choisir de ne pas répondre s’il n’a pas une confiance suffisante.

Cette approche pourrait ralentir le processus mais serait préférée dans des situations à enjeux élevés, où des réponses incorrectes peuvent avoir des conséquences plus graves.

Les chercheurs appellent la communauté de l’IA à adopter ces paramètres pour améliorer les méthodes d’évaluation de l’incertitude dans les réponses fournies par les modèles.

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Populaires

Quitter la version mobile