Connect with us

Technologie

À une époque où l’empathie paraît rare, l’IA interprète désormais les émotions.

Publié

on

Une équipe de chercheurs de l’Université de Science et Technologie de Pohang (Postech) en Corée du Sud a développé une technologie d’IA nommée Emosync, qui vise à approfondir la compréhension des émotions d’autrui.

En se basant sur des analyses des traits de personnalité et des valeurs individuelles, Emosync génère des analogies personnalisées pour permettre aux utilisateurs de se connecter émotionnellement à des situations vécues par d’autres, améliorant ainsi l’empathie.

Cette technique s’écarte des approches précédentes qui supposaient que des expériences similaires susciteraient des émotions identiques, en tenant compte des différences individuelles dans les réactions émotionnelles.

Les essais avec plus de 100 participants ont démontré que l’utilisation d’Emosync entraînait une amélioration significative de la compréhension émotionnelle par rapport aux méthodes traditionnelles.

Les résultats suggèrent que des expériences métaphoriques adaptées peuvent réellement favoriser l’empathie.

Les chercheurs, dirigés par le professeur Inseok Hwang, mettent en avant le potentiel de l’IA pour faciliter des interactions humaines plus authentiques et compréhensives, tout en envisageant des développements futurs pour renforcer cette technologie en contexte réel.

Entreprise

Les États-Unis incluent OpenAI, Google et Anthropic sur la liste des fournisseurs d’IA agréés pour les agences fédérales.

Publié

on

Le gouvernement américain a récemment intégré Google, OpenAI et Anthropic à une liste de fournisseurs approuvés pour des services d’intelligence artificielle destinés aux agences fédérales civiles, selon un rapport de Bloomberg.

Ces entreprises pourront proposer leurs technologies via un nouveau programme de récompenses multiples (MSA), facilitant ainsi l’accès aux outils d’IA grâce à des contrats pré-négociés, au lieu de passer par des négociations individuelles.

La General Services Administration (GSA), responsable du MSA, a indiqué que ces entreprises avaient été rigoureusement évaluées en matière de sécurité et de performance.

Cette décision s’inscrit dans la continuité des initiatives prises sous la présidence de Donald Trump, visant à promouvoir le développement de l’IA, tout en veillant à ce que les agences fédérales privilégient des solutions d’IA exemptes de biais idéologiques.

Continuer à lire

Outils

Google annonce que son outil de détection de bogues basé sur l’IA a identifié 20 vulnérabilités de sécurité.

Publié

on

Le chasseur de bogues basé sur l’IA, Big Sleep, développé par DeepMind et associé à Google, a signalé ses premières vulnérabilités, révélant 20 défauts dans des logiciels open source comme FFMPEG et ImageMagick.

Bien que ces vulnérabilités n’aient pas encore été corrigées, ce succès indique que ces outils d’IA commencent à produire des résultats tangibles.

Google assure que chaque vulnérabilité a été confirmée par des experts humains, même si l’IA a identifié les défauts sans intervention.

Des outils similaires, tels que Runsybil et Xbow, ont également émergé, certains remportant des prix sur des plateformes de primes de bogues.

Cependant, des préoccupations existent concernant la fiabilité des rapports, certains étant jugés comme des « hallucinations » par des développeurs.

Malgré la promesse de ces technologies, des doutes persistent sur leur précision et leur utilité effective dans la détection des vulnérabilités réelles.

Continuer à lire

Entreprise

Des experts proposent des stratégies basées sur des preuves pour un développement responsable de l’IA.

Publié

on

Des chercheurs de Berkeley, en collaboration avec d’autres institutions prestigieuses, ont proposé des politiques fondées sur des preuves pour réguler l’intelligence artificielle (IA) dans un article publié dans la revue Science.

Coécrit par des experts de plusieurs universités, cet article s’inscrit dans la lignée d’un rapport du Joint California Policy Working Group sur les modèles d’IA, visant à guider l’utilisation et la gouvernance de cette technologie.

Les auteurs soulignent l’importance d’accélérer la collecte de preuves pour éclairer les décisions politiques, tout en évitant que les incertitudes scientifiques ne soient utilisées pour justifier l’inaction.

Ils recommandent notamment d’inciter l’évaluation des modèles d’IA avant leur déploiement, de renforcer la transparence des grandes entreprises d’IA et d’accroître la surveillance post-déploiement des risques associés.

Les chercheurs insistent sur le fait qu’une politique bien conçue doit s’appuyer sur une compréhension scientifique solide, plutôt que sur des attentes irréalistes.

Enfin, ils appellent à un débat démocratique basé sur des données probantes pour mieux gérer les tensions entourant le développement de l’IA.

Continuer à lire

Populaires