Non classé
L’approche enhance l’enseignement des nouvelles compétences aux grands modèles linguistiques.
Des chercheurs ont mis au point une méthode, nommée Wegeft, qui améliore les performances des grands modèles de langage sans nécessiter de ressources de calcul supplémentaires.
Cette innovation surpasse les techniques antérieures, comme Lora, dans des domaines tels que le raisonnement, l’instruction et la génération de code.
Wegeft permet de modifier judicieusement un petit sous-ensemble de paramètres pour optimiser le modèle, ciblant les aspects nécessitant un apprentissage tout en évitant de surcharger le système.
Dans leurs tests, les scientifiques ont constaté que Wegeft surpassait Lora et ses variantes dans plusieurs tâches.
Ils cherchent également à explorer l’utilisation de cette méthode pour identifier les éléments des modèles responsables de résultats indésirables, afin de renforcer la sécurité et l’alignement éthique de l’intelligence artificielle.
Les résultats seront présentés lors de la Conférence internationale sur l’apprentissage automatique à Vancouver.