Connect with us

Entreprise

Que se passe-t-il quand l’IA confronte l’incertitude humaine ?

Publié

on

Dans un monde où l’intelligence artificielle (IA) prend de plus en plus d’importance, comprendre comment les machines prennent des décisions en situation d’incertitude est devenu crucial.

Les chercheurs, comme Willie Neiswanger de l’USC, élaborent des frameworks qui intègrent la théorie des décisions et la théorie des utilités pour renforcer la capacité de l’IA à gérer cette incertitude.

Neiswanger souligne que les modèles de grande langue (LLM) peinent à exprimer des nuances de confiance, produisant des réponses d’apparence sûre même lorsque les données sont insuffisantes.

Son travail vise à améliorer la quantification de l’incertitude, permettant aux systèmes d’IA de prendre des décisions éclairées en tenant compte des préférences humaines.

Les applications de cette recherche sont diverses, allant de la planification stratégique en entreprise à l’aide au diagnostic médical.

En intégrant les préférences des utilisateurs dans le processus décisionnel, il est possible de générer des recommandations qui, tout en étant techniquement optimales, respectent également les valeurs humaines essentielles.

Les prochaines étapes de ces recherches visent à élargir ces approches à des domaines variés, comme la logistique ou les soins de santé, tout en améliorant la transparence des décisions prises par les modèles, afin que les utilisateurs comprennent mieux comment et pourquoi ces choix sont faits.

Entreprise

Sam Altman avertit qu’il n’existe pas de confidentialité légale en utilisant ChatGPT comme thérapeute.

Publié

on

Les utilisateurs de ChatGPT devraient réfléchir à deux fois avant d’utiliser cette IA pour des discussions sensitives, comme la thérapie.

Sam Altman, PDG d’OpenAI, a souligné lors d’un podcast que l’industrie de l’IA n’a pas établi de protections adéquates pour la confidentialité des conversations, notamment en comparaison avec le privilège de confidentialité existant entre un patient et son médecin.

En conséquence, des informations sensibles échangées avec un chatbot pourraient être légalement accessibles dans le cadre de procédures judiciaires.

Altman a exprimé des préoccupations concernant les implications juridiques de ces conversations, plaidant pour que des normes de confidentialité similaires soient appliquées aux interactions avec l’IA.

Il a également mentionné que le manque de protection pourrait freiner l’adoption de ces technologies par les utilisateurs.

En réponse à ces enjeux, OpenAI conteste des décisions judiciaires qui pourraient forcer l’entreprise à divulguer des données utilisateur, soulignant l’importance de la clarté sur la confidentialité dans l’utilisation des outils d’IA.

Continuer à lire

Entreprise

Nommer Shengjia Zhao au poste de scientifique en chef de l’unité de supervision de l’IA.

Publié

on

Mark Zuckerberg, le PDG de Meta, a récemment nommé Shengjia Zhao, ancien chercheur d’OpenAI, au poste de scientifique en chef de Meta Superintelligence Labs (MSL).

Zhao, reconnu pour ses contributions significatives à des projets comme ChatGPT et O1, sera chargé d’établir un programme de recherche au sein de cette nouvelle unité, sous la direction d’Alexandr Wang.

Ce dernier, bien qu’il n’ait pas de formation en recherche, a été recruté pour sa vision.

Meta intensifie ses efforts pour rivaliser dans le domaine de l’intelligence artificielle, en recrutant plusieurs spécialistes de haut niveau d’autres entreprises technologiques, tels qu’OpenAI et Google DeepMind.

L’entreprise investit également massivement dans des infrastructures de cloud computing pour soutenir l’entraînement de modèles avancés d’IA.

À terme, Zhao et son équipe devraient bénéficier d’une immense capacité de calcul, ce qui pourrait propulser Meta parmi les leaders de l’IA au même niveau qu’OpenAI et Google.

Continuer à lire

Actualité

La Silicon Valley devrait-elle applaudir les initiatives d’IA de Trump ?

Publié

on

Les grandes entreprises d’intelligence artificielle accueillent avec enthousiasme le plan d’action présenté par Donald Trump, qui a été influencé par ses alliés de la Silicon Valley.

Ce plan pourrait modifier le paysage de l’IA, rendant plus difficile pour les régulateurs environnementaux de bloquer la construction de centres de données, et pour les États de superviser le développement et la sécurité de l’IA.

Dans un épisode récent du podcast TechCrunch, les animateurs discutent de ces changements envisagés et de leur impact sur l’industrie technologique.

Ce podcast, intitulé « Equity », revient chaque semaine pour aborder l’actualité des startups et de la technologie.

Les auditeurs peuvent s’abonner sur diverses plateformes de podcast.

Continuer à lire

Populaires