Recherche
Les LLM multimodaux et le cerveau humain élaborent des représentations d’objets de manière comparable, selon l’étude.
Cette étude, publiée dans Nature Machine Intelligence, explore comment les modèles de langage multimodaux (LLM), tels que ceux utilisés par ChatGPT, peuvent représenter des objets de manière similaire à l’esprit humain.
Les chercheurs de l’Académie chinoise des sciences ont analysé les représentations d’objets dans des modèles comme ChatGPT-3.5 et Geminipro Vision 1.0, en utilisant des tâches de type jugements de triplet.
Ils ont collecté près de 4,7 millions de jugements pour établir des représentations dimensionnelles qui capturent les similitudes entre 1 854 objets naturels.
Les résultats montrent que les LLM organisent ces objets de manière comparable à la cognition humaine, en catégorisant effectivement des groupements tels que "animaux" et "plantes".Les chercheurs ont trouvé un alignement évident entre les représentations des LLM et l’activité neuronale humaine, suggérant que ces modèles, bien qu’ils ne soient pas identiques à la perception humaine, partagent des caractéristiques essentielles.
Ces découvertes pourraient inspirer de futures recherches sur la façon dont les LLM interprètent et représentent des objets, contribuant ainsi à l’avancement des systèmes d’IA basés sur des principes neurobiologiques.