Non classé
Le modèle d’IA convertit les commandes textuelles en mouvements pour différents robots et avatars.
Ce modèle permet aux utilisateurs de spécifier des actions, comme « avancer quelques étapes et tourner à droite », que MotionGlot traduit en mouvements appropriés pour divers types de robots et d’avatars animés, qu’ils soient humanoïdes ou quadrupèdes.
En traitant le mouvement comme une langue, le modèle établit des correspondances entre des commandes linguistiques et des actions physiques, ce qui ouvre la voie à de nombreuses applications dans les domaines de la collaboration, du jeu et de la réalité virtuelle.
Pour entraîner MotionGlot, les chercheurs ont utilisé deux ensembles de données contenant des heures de mouvements annotés, permettant au modèle de générer des résultats fiables, même pour des actions inédites.
Par exemple, il peut interpréter une demande spécifique comme « un robot marche en arrière » ou des instructions plus abstraites telles que « un robot marche joyeusement ».
En rendant le modèle accessible au public, les chercheurs espèrent encourager d’autres innovations dans la robotique et l’animation numérique.