Outils

L’IA et la confiance excessive : un reflet des troubles du langage humain.

Publié

on

Des chercheurs de l’Université de Tokyo ont établi des parallèles entre les réponses souvent erronées des modèles de langage basés sur l’intelligence artificielle (IA), comme ChatGPT, et le trouble de l’aphasie, où les personnes peuvent parler couramment sans faire de sens.

Cette similitude soulève la possibilité d’améliorer le diagnostic de l’aphasie et d’aider à affiner les systèmes d’IA.

L’utilisation croissante de ces outils technologiques nécessite une attention particulière pour garantir la qualité et la précision des informations qu’ils fournissent, afin d’éviter la désinformation.

Pour explorer cette analogie, les chercheurs ont appliqué une technique appelée Energy Landscape Analysis pour examiner l’activité cérébrale des personnes atteintes d’aphasie et l’ont comparée à des données de modèles de langage.

Ils ont constaté des comportements similaires dans la gestion des signaux entre les deux, suggérant que les limitations internes dans les modèles IA peuvent se rapprocher de certains mécanismes cérébraux affectés par l’aphasie.

Bien que des implications intéressantes émergent pour les neurosciences et le développement des IA, les chercheurs insistent sur la prudence dans les conclusions, soulignant que les chatbots ne souffrent pas de lésions cérébrales, mais pourraient être contraints par des modèles internes rigides.

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Populaires

Quitter la version mobile