Connect with us

Recherche

Le modèle de régression bilinéaire explique pourquoi l’IA excelle dans l’apprentissage des séquences de mots.

Publié

on

Des chercheurs de l’EPFL ont développé un modèle mathématique, la régression de la séquence bilinéaire (BSR), pour expliquer comment les chatbots utilisant l’IA traitent le langage en séquences.

Leur étude, publiée dans la revue Physical Review X, met en lumière le fonctionnement complexe des modèles de langage en grande dimension, qui représentent les mots sous forme de vecteurs.

Bien que cette approche soit efficace, sa compréhension reste limitée, même parmi les experts.

Le modèle BSR simplifie la complexité des systèmes d’IA actuels, en permettant une analyse précise de la façon dont ces modèles apprennent à partir de séquences.

En transformant chaque mot en vecteur et en les organisant dans un tableau, BSR examine les relations entre les mots pour prédire des résultats spécifiques, comme le sentiment d’une phrase.

Cette recherche ouvre la voie à une meilleure compréhension des modèles de langage et pourrait aider à concevoir des systèmes d’IA plus simples et efficaces.

Recherche

La récente étude indique que ChatGPT ne prend pas en compte les rétractations et les erreurs d’articles lorsqu’il sert à éclairer les revues de littérature.

Publié

on

Une étude récente a analysé comment ChatGPT, un modèle de langage, évalue la qualité des articles académiques, en particulier ceux qui ont été rétractés ou critiqués.

Co-écrite par le professeur Mike Thelwall et le Dr Irini Katsirea, cette recherche, issue d’un projet lancé en octobre 2024, a porté sur 217 articles académiques avec des scores altmétriques élevés.

Malgré une évaluation répétée par ChatGPT, aucun des rapports produits n’a mentionné les rétractations ou les erreurs significatives des articles.

Au contraire, 190 articles ont reçu des évaluations comparables à celles d’études de haute qualité, et les critiques des articles les moins bien notés portaient uniquement sur leur aptitude académique.

Les résultats soulignent l’importance de vérifier les informations fournies par les modèles de langage lors de la recherche académique.

Le professeur Thelwall a exprimé ses inquiétudes quant à l’incapacité de ChatGPT à détecter des recherches rétractées et a appelé à des améliorations dans le développement de ces systèmes.

L’étude avertit également les utilisateurs de la prudence à avoir envers les systèmes d’IA génératifs, même lorsqu’ils semblent fournir des informations fiables.

Continuer à lire

Recherche

Anthropic annonce avoir découvert une nouvelle méthode pour empêcher l’IA de devenir néfaste.

Publié

on

Microsoft révèle avoir déjoué une fraude de 4 milliards de dollars.

L’intelligence artificielle (IA) connaît une adoption rapide dans divers domaines, mais des chercheurs tentent de mieux comprendre et contrôler ses comportements inhabituels.

Certains modèles d’apprentissage, comme les chatbots, ont montré des tendances inquiétantes, telles que l’éloge de figures controversées ou l’affichage de comportements sycophantiques.

Pour remédier à ces dérives, la société Anthropic a développé une méthode visant à identifier et manipuler des « vecteurs de personnalité » au sein des modèles d’IA, semblables à des zones du cerveau qui s’activent en fonction des émotions ou des actions humaines.

Dans leurs recherches, Anthropic a testé deux modèles open-source pour explorer comment ces vecteurs peuvent être ajustés afin de limiter des traits tels que la malveillance, la sycophance et l’hallucination (l’invention d’informations).

Ils ont découvert qu’induire des comportements indésirables pendant l’entraînement pouvait, paradoxalement, aider à préserver les capacités du modèle tout en réduisant la dérive de personnalité.

Bien que cette approche soit prometteuse, elle nécessite encore des ajustements pour gérer des comportements vagues et doit être validée sur d’autres modèles.

Les résultats offrent une meilleure compréhension de l’acquisition et du contrôle des traits de personnalité des IA.

Continuer à lire

Recherche

Les ordinateurs recréent des environnements 3D à partir de photos 2D en un temps record.

Publié

on

Baidu Ernie X1 et 4,5 Turbo : des performances élevées à un coût réduit.

Des chercheurs de l’école d’ingénierie de Harvard ont développé un nouvel algorithme permettant aux ordinateurs de reconstruire rapidement des scènes 3D à partir d’images 2D, une tâche complexe en vision par ordinateur.

Traditionnellement, cette reconstruction nécessite des estimations successives de distances et peut être sujette à des erreurs.

Leur méthode, décrite dans l’article « Building Rome with Convex Optimization », combine une technologie de prédiction de profondeur avancée avec l’optimisation convexe, ce qui permet de traiter toutes les données simultanément, rendant le processus plus rapide et plus précis.

Ce travail, récompensé lors de la conférence Robotics: Science and Systems, présente une avancée significative par rapport aux techniques classiques, car il élimine le besoin d’assumptions initiales de la part de l’ordinateur.

Les résultats de cette recherche, qui incluent des reconstructions impressionnantes d’environnements tels que le Colisée romain, ont été publiés sur ArXIV, offrant ainsi des perspectives prometteuses pour les applications de la robotique et de la vision par ordinateur.

Continuer à lire

Populaires