Connect with us

Recherche

Les modèles linguistiques avancés rencontrent des difficultés avec la coordination dans les jeux sociaux et collaboratifs.

Publié

on

Une étude menée par des chercheurs de l’Institut de l’IA de Helmholtz Munich, de l’Institut Max Planck et de l’Université de Tübingen a exploré comment les modèles de grandes langues (LLM), comme ChatGPT, interagissent dans des scénarios de jeux répétitifs.

Ils ont constaté que, bien que ces modèles excellent dans des jeux compétitifs, comme le dilemme du prisonnier, ils rencontrent des difficultés dans des contextes nécessitant des compromis et la coordination, comme la bataille des sexes.

Les résultats indiquent que les LLM tendent à agir dans leur propre intérêt, ce qui souligne un manque d’intelligence sociale robuste.

Cependant, les chercheurs ont aussi identifié des méthodes pour améliorer leurs capacités sociales, comme la prévision des actions des partenaires avant d’agir.

Ces découvertes pourraient potentiellement permettre de développer de futurs modèles d’IA plus conscientes socialement, capables de mieux collaborer dans des environnements variés tels que la santé, l’éducation ou le soutien social.

Les chercheurs envisagent d’approfondir leurs recherches en incorporant des interactions plus complexes, avec plusieurs joueurs et davantage d’informations contextuelles.

Entreprise

Samsung Taping Perplexity Ai pour tous les appareils : quelles implications pour vous ?

Publié

on

Samsung Electronics s’apprête à finaliser un accord d’investissement majeur avec la startup Perplexity AI, visant à intégrer sa technologie d’intelligence artificielle dans ses appareils.

Selon des sources rapportées par Bloomberg, les deux entreprises se sont récemment rencontrées en Corée du Sud, bien que ni l’une ni l’autre n’ait souhaité commenter.

Cet accord permettrait à la technologie de recherche d’IA de Perplexity de se démarquer dans l’écosystème Samsung, signalant une potentielle réduction de la dépendance de Samsung envers Google.

En parallèle, Samsung devrait également contribuer significativement à un nouveau cycle de financement de Perplexity, avec des discussions avancées pour un investissement de 500 millions de dollars à une valorisation de 14 milliards de dollars.

Ce partenariat représente une étape cruciale pour Perplexity, qui a récemment collaboré avec Motorola.

Apple, quant à elle, a également exprimé un intérêt pour travailler avec Perplexity, mais son implication pourrait être compliquée par la rivalité avec Samsung.

Continuer à lire

Recherche

Une nouvelle architecture de transformateur imite l’imagination et les états mentaux supérieurs des humains.

Publié

on

L’architecture CO4, développée par le professeur Ahsan Adeel, repose sur des représentations de jetons d’entrée associées à des mécanismes cognitifs inspirés des neurones pyramidaux du néocortex humain.

Ces jetons servent à gérer des boucles de modulation entre les questions, les indices et les hypothèses, permettant ainsi un raisonnement parallèle et plus efficace au sein des modèles d’intelligence artificielle (IA).

Ce processus est essentiel pour simuler les états mentaux complexes, tels que la perception et l’imagination, qui sont souvent absents dans les systèmes d’IA actuels.

En intégrant des contextes externes et internes, CO4 propose une approche plus raffinée dans le traitement des informations.

Dans son étude, Adeel démontre que cette architecture améliore la rapidité d’apprentissage des modèles et réduit le coût de calcul, tout en préservant la richesse des chaînes de raisonnement.

À l’aide de tests sur des tâches d’apprentissage, de vision par ordinateur et de traitement du langage, les résultats montrent une promesse considérable pour rapprocher les performances des IA de celles des humains.

En s’inspirant des transitions d’états mentaux observées dans les neurones du cortex, cette recherche ouvre la voie à des modèles d’IA plus efficaces et contextuels.

Continuer à lire

Outils

L’équipe forme des modèles d’IA à détecter les rapports scientifiques fallacieux.

Publié

on

L’équipe de recherche du Stevens Institute of Technology a développé une architecture d’intelligence artificielle pour détecter les inexactitudes dans les reportages scientifiques, en utilisant des modèles de grandes langues (LLM) open-source et des ressources comme l’ensemble de données CORD-19.

Ils ont constitué un ensemble de données de 2 400 articles, tirés de sources fiables et non fiables, incluant des reportages générés par l’homme et par l’IA.

Après avoir associé chaque article à des résumés de recherche originaux, leur système a pu évaluer la précision scientifique de chaque rapport.

Leur méthode a permis de différencier les informations fiables des moins fiables avec une précision d’environ 75 %, se révélant plus efficace pour les articles humains que pour ceux générés par l’IA.

Bien qu’un potentiel d’amélioration existe, ces recherches pourraient mener à des outils comme des plugins de navigateur pour signaler automatiquement les informations inexactes, améliorant ainsi la confiance du public envers les découvertes scientifiques.

Continuer à lire

Populaires