Non classé
Une méthode innovante de formation sur l’IA génère des agents logiciels performants avec uniquement 78 exemples.
Une étude récente de l’Université Jiao Tong de Shanghai et du SII Generative AI Research Lab (GAIR) révèle que la formation de modèles de langage de grande taille (LLM) pour des tâches complexes peut être réalisée avec des ensembles de données beaucoup plus petits que prévu.
Le cadre proposé, nommé Limi, se base sur l’idée que la qualité des données prévaut sur leur quantité.
Les chercheurs ont démontré qu’avec seulement 78 exemples soigneusement sélectionnés, un modèle pouvait surpasser ceux entraînés sur plusieurs milliers d’exemples, ce qui est prometteur pour les secteurs où les données sont rares ou coûteuses à acquérir.
Limi se concentre sur la collecte de démonstrations structurées de comportements autonomes.
Chaque démonstration comprend une requête et une série d’actions (trajectoire) prises par le modèle pour répondre à cette requête.
Les chercheurs ont élaboré un ensemble de données de 78 requêtes à partir de scénarios réels et ont confié la réalisation des tâches à un agent codant assisté par l’IA.
Leurs résultats, obtenus avec un modèle optimisé, montrent des performances remarquables par rapport à plusieurs références établies, suggérant que des systèmes d’IA autonomes peuvent être développés de manière plus efficace sans nécessiter de vastes quantités de données.