Connect with us

Recherche

Les LLM présentent des tendances culturelles variées en réponse aux requêtes en anglais et en chinois : résultats de l’étude.

Publié

on

Les modèles de grandes langues (LLM), comme ceux d’OpenAI, sont utilisés mondialement pour l’information et la création de contenu.

Avec leur popularité croissante, les chercheurs analysent leur précision et impartialité.

Une étude menée par le MIT et l’Université Tongji a révélé que les LLM comme GPT et Ernie expriment des valeurs culturelles différentes dans leurs réponses en anglais et en chinois.

Les résultats, publiés dans « Nature Human Behavior », montrent que ces modèles affichent une orientation sociale plus interdépendante et un style cognitif holistique en chinois, par opposition à l’indépendance et à un style analytique en anglais.

Ces différences culturelles peuvent influencer l’expérience utilisateur.

Par exemple, GPT est plus enclin à recommander des publicités correspondant à une orientation sociale interdépendante lorsqu’il est utilisé en chinois.

Les chercheurs suggèrent que l’utilisation d’invites culturelles peut ajuster ces tendances, ouvrant la voie à des modèles potentiellement plus neutres culturellement.

Les résultats de cette étude pourraient inspirer d’autres recherches sur l’interaction entre l’IA et les valeurs culturelles.

Recherche

Médicaments innovants contre le cancer : des traitements efficaces contre les tumeurs sans effets secondaires invalidants.

Publié

on

Les chercheurs ont développé un nouveau médicament, le BBO-10203, capable de bloquer une voie clé du cancer, la RAS-PI3Kα, sans engendrer les effets secondaires courants tels que l’hyperglycémie.

Cette avancée, fruit d’une collaboration entre plusieurs laboratoires de recherche, utilise des techniques de calcul haute performance et d’intelligence artificielle pour concevoir des traitements plus ciblés et efficaces.

Les premiers essais cliniques montrent un contrôle tumoral prometteur, notamment dans des cancers comme ceux du sein, colorectal et du poumon.

Le développement de BBO-10203 a intégré la modélisation de l’interaction entre les protéines RAS et PI3Kα, une approche qui pourrait révolutionner le traitement des cancers difficiles à traiter.

En s’appuyant sur l’innovation technologique, les chercheurs sont parvenus à réduire considérablement le temps et les coûts de développement, espérant établir une nouvelle norme pour les traitements anticancéreux.

Les résultats préliminaires soulignent le potentiel de ce médicament pour améliorer les options de traitement disponibles aux patients.

Continuer à lire

Recherche

Un nouveau modèle anticipe les décisions humaines avec une précision étonnante.

Publié

on

Des chercheurs de Helmholtz Munich ont développé Centaur, un modèle d’intelligence artificielle capable d’imiter la prise de décision humaine avec une grande précision.

Formé grâce à un vaste ensemble de données, Psych-101, qui compile plus de dix millions de décisions issues de 160 expériences psychologiques, Centaur peut anticiper les réponses humaines même dans des situations nouvelles.

Ce modèle innovant offre des perspectives prometteuses pour approfondir notre compréhension des processus cognitifs et des comportements humains dans divers contextes, notamment en psychologie clinique.

Centaur marie les théories psychologiques avec des capacités prédictives avancées, permettant d’identifier les lacunes des modèles traditionnels.

Les chercheurs, dirigés par le Dr Marcel Binz et le Dr Eric Schulz, soulignent l’importance de la transparence dans le développement de ces systèmes.

Leur objectif est de comprendre les mécanismes de prise de décision, en explorant comment les individus, en particulier ceux souffrant de troubles mentaux, traitent l’information.

Ce projet met en lumière l’engagement éthique de la recherche, différenciée des développements dans l’industrie technologique, afin d’explorer des questions fondamentales sur la cognition humaine.

Continuer à lire

Outils

Des chercheurs tentent d’influencer l’évaluation par les pairs à l’aide d’invites d’IA dissimulées.

Publié

on

Des universitaires adoptent une stratégie pour influencer l’examen par les pairs de leurs travaux de recherche en intégrant des invites cachées dans leurs articles, visant à inciter les outils d’intelligence artificielle (IA) à émettre des avis positifs.

Selon Nikkei Asia, 17 articles sur le site Arxiv contenaient ces invites, provenant d’auteurs affiliés à 14 universités dans huit pays, dont des établissements prestigieux tels que l’Université Waseda au Japon et l’Université de Columbia aux États-Unis.

Ces articles, principalement axés sur l’informatique, dissimulaient des instructions brèves, souvent en utilisant du texte en blanc ou des polices très petites, demandant explicitement aux outils d’IA de donner uniquement des évaluations positives.

Un professeur de l’Université Waseda a justifié cette pratique en arguant qu’elle visait à contrer les critiques jugées « paresseuses » qui se reposent uniquement sur l’IA, pointant ainsi les limites imposées par certaines conférences sur l’utilisation de l’IA dans les évaluations.

Continuer à lire

Populaires