Recherche
Une nouvelle architecture de transformateur imite l’imagination et les états mentaux supérieurs des humains.
Ces jetons servent à gérer des boucles de modulation entre les questions, les indices et les hypothèses, permettant ainsi un raisonnement parallèle et plus efficace au sein des modèles d’intelligence artificielle (IA).
Ce processus est essentiel pour simuler les états mentaux complexes, tels que la perception et l’imagination, qui sont souvent absents dans les systèmes d’IA actuels.
En intégrant des contextes externes et internes, CO4 propose une approche plus raffinée dans le traitement des informations.
Dans son étude, Adeel démontre que cette architecture améliore la rapidité d’apprentissage des modèles et réduit le coût de calcul, tout en préservant la richesse des chaînes de raisonnement.
À l’aide de tests sur des tâches d’apprentissage, de vision par ordinateur et de traitement du langage, les résultats montrent une promesse considérable pour rapprocher les performances des IA de celles des humains.
En s’inspirant des transitions d’états mentaux observées dans les neurones du cortex, cette recherche ouvre la voie à des modèles d’IA plus efficaces et contextuels.