Connect with us

Recherche

Les modèles de vision linguistique développent des capacités de raisonnement spatial grâce à des environnements artificiels et des descriptions de scènes en trois dimensions.

Publié

on

Une équipe de recherche de l’Institut italien de technologie (IIT) et de l’Université d’Aberdeen a développé un nouveau cadre conceptuel et un ensemble de données pour former des modèles de vision en langue (VLM) sur des tâches de raisonnement spatial.

Ce projet, issu de la collaboration entre les deux institutions, vise à améliorer l’interaction des robots avec leur environnement et les humains en intégrant des mécanismes de cognition sociale.

Les chercheurs ont créé un monde virtuel dans lequel des cuboïdes sont observés sous différents angles, afin de permettre aux robots de mieux comprendre les perspectives des autres.

Ce travail théorique ouvre des voies prometteuses pour la formation de systèmes d’IA incarnée.

Les chercheurs estiment que ces nouvelles capacités de raisonnement spatial permettront aux robots de mieux interpréter les instructions et de réaliser des interactions plus signifiantes avec les humains.

La prochaine étape consiste à rendre cet environnement virtuel plus réaliste pour faciliter la transition vers des applications dans le monde réel, rendant les interactions entre robots et humains plus efficaces.

Entreprise

Ajoutez des humains : une étude d’Oxford met en lumière le lien omis dans les tests de chatbots.

Publié

on

Rejoignez l’événement VB Transform, qui s’appuie sur l’expertise des chefs d’entreprise depuis près de 20 ans pour créer de véritables stratégies d’IA.

Une recherche menée par l’Université d’Oxford a analysé la performance des modèles de langage en matière de diagnostic médical.

Bien que les LLM, comme le GPT-4, montrent des résultats impressionnants dans des environnements contrôlés, ils peinent à interagir efficacement avec des patients réels.

Lors d’une étude impliquant près de 1 300 participants, ceux utilisant des LLM ont obtenu des diagnostics corrects dans moins de 35% des cas, contre 76% pour un groupe témoin auto-diagnostiquant.

Cette situation soulève des questions sur l’utilisation des LLM pour des conseils médicaux, car la communication entre l’utilisateur et le modèle peut être entravée par des informations incomplètes ou mal interprétées.

En conclusion, il est crucial d’évaluer les LLM non seulement sur leur performance théorique, mais aussi sur leur capacité à interagir avec les humains dans des situations du monde réel.

Continuer à lire

Recherche

Oubliez les techno-optimistes et les Luddites : la majorité des gens évaluent l’IA en fonction de ses capacités et de sa personnalisation.

Publié

on

Une étude récente révèle que les attitudes des gens envers l’intelligence artificielle (IA) sont nuancées, oscillant entre l’enthousiasme et le scepticisme.

Les chercheurs, dont le professeur Jackson Lu du MIT, ont développé un cadre qui montre que l’acceptation de l’IA dépend de sa capacité perçue à accomplir des tâches par rapport aux humains et de la nécessité d’une personnalisation dans le contexte décisionnel.

Par exemple, l’IA est mieux acceptée dans des situations comme la détection de fraude, où ses capacités surpassent celles des humains, alors qu’elle est moins privilégiée dans des cas impliquant des interactions humaines, comme les entretiens d’embauche.

De plus, le contexte économique joue un rôle crucial dans l’acceptation de l’IA.

Dans les pays avec un faible taux de chômage, les gens sont plus enclins à admettre l’IA.

Lu souligne que la méfiance face à l’IA augmente chez ceux qui craignent de perdre leur emploi.

Cette étude, basée sur une méta-analyse de 163 recherches antérieures, fournit ainsi des éclaircissements sur la manière dont les individus évaluent l’IA dans divers contextes, et propose une nouvelle perspective sur les préférences humaines face à l’intelligence artificielle.

Continuer à lire

Actualité

Les outils de recherche IA de Google réduisent le trafic des éditeurs.

Publié

on

Un rapport du Wall Street Journal souligne que les aperçus d’IA de Google et d’autres outils basés sur l’intelligence artificielle, comme les chatbots, nuisent gravement aux éditeurs de nouvelles.

Les utilisateurs se tournent de plus en plus vers ces outils pour obtenir des réponses directes, réduisant ainsi le besoin de cliquer sur des liens vers des sites d’actualités.

Cette tendance a entraîné une baisse significative du trafic pour ces éditeurs, compromettre leur capacité à financer un journalisme de qualité.

L’impact est déjà visible : selon des données, la part du trafic provenant de la recherche organique pour le New York Times est passée de 44 % à 36,5 % en trois ans.

Pour s’adapter, certains éditeurs, comme l’Atlantique et le Washington Post, explorent de nouveaux modèles économiques, y compris des accords de partage de contenu avec des entreprises d’IA.

Des collaborations, comme celle du Times avec Amazon, visent à monétiser leur contenu tout en l’adaptant aux systèmes d’IA, offrant ainsi une voie pour générer des revenus supplémentaires en réponse à cette évolution technologique.

Continuer à lire

Populaires