Outils
Pourquoi l’IA n’interprète-t-elle pas une fleur comme le font les humains ?
Une étude récente montre que des outils d’intelligence artificielle comme ChatGPT ne peuvent pas appréhender des concepts tels que celui d’une fleur de la même manière qu’un humain.
Les modèles de langage, qui alimentent ces assistants, se basent principalement sur le langage et parfois des images, mais manquent d’expériences sensorielles.
Qihui Xu, l’auteur principal de l’étude, souligne que sans la capacité de sentir ou de toucher, ces outils n’arrivent pas à saisir la complexité et la richesse des concepts humains.L’étude, publiée dans Nature Human Behavior, a évalué la représentation de 4 442 mots en comparant les perceptions humaines et celles de grands modèles de langage d’OpenAI et Google.
Les résultats indiquent que les IA peuvent bien représenter des concepts non sensoriels, mais échouent à capter ceux qui nécessitent une interaction physique.
Malgré leurs avancées, les modèles de langage restent limités par leur dépendance au texte.
Toutefois, Xu note qu’en intégrant des données sensorielles et robotiques, les futurs modèles pourraient potentiellement mieux comprendre le monde physique.