Connect with us

Santé

L’IA comme vecteur d’égalité sociale : Arundhati Bhattacharya de Salesforce sur la transformation numérique en Inde.

Publié

on

L’humanité a toujours connu des moments charnières, comme la découverte du feu, qui a transformé nos interactions et nos modes de vie.

De nos jours, l’intelligence artificielle (IA) est ce tournant, impactant déjà notre façon de travailler et d’apprendre.

En Inde, l’adoption de l’IA générative pourrait augmenter le PIB de 359 à 438 milliards de dollars d’ici 2029-30, représentant non seulement une opportunité économique, mais également un changement social.

Le pays a besoin de leaders capables de jongler entre traditions et innovations numériques, parmi lesquels se distingue Arundhati Bhattacharya, PDG de Salesforce India.

Arundhati, qui a pris des responsabilités dans le secteur technologique après une longue carrière bancaire, incarne cette évolution.

Elle souligne l’importance de l’IA, non seulement comme outil d’efficacité, mais aussi en tant que potentiel égalisateur social.

Avec l’infrastructure numérique récente en Inde, comme le système Jan Dhan-Aadhaar-mobile, l’IA pourrait prochainement transformer les services de santé et l’agriculture.

Pour Arundhati, le succès dépend de la collaboration entre les secteurs public et privé afin de garantir un accès équitable à la technologie et de redéfinir les compétences nécessaires à l’avenir.

L’Inde, en embrassant cette vague d’opportunités, peut véritablement mener à une transformation inclusive.

Santé

Comment déterminer si l’IA trompe ? Une nouvelle approche évalue la véracité des explications fournies par l’IA.

Publié

on

Récemment, l’intérêt s’est intensifié concernant la transparence des décisions prises par les modèles de langage, notamment en ce qui concerne leur capacité à fournir des explications fiables.

Des chercheurs du Laboratoire d’intelligence informatique et d’intelligence artificielle (CSAIL) de Microsoft et du MIT ont développé une nouvelle méthode pour évaluer la « fidélité » des explications générées par ces modèles.

Katie Matton, l’auteure principale de l’étude, souligne que la création d’explications trompeuses peut induire les utilisateurs en erreur, leur faisant croire à l’exactitude des réponses tout en compromettant l’éthique, en particulier dans des domaines sensibles comme la santé ou le droit.

La méthode introduite, appelée « fidélité du concept causal », permet de comparer les concepts mentionnés dans les explications d’un modèle à ceux qui ont réellement influencé sa réponse.

En utilisant des techniques d’interventions contrefactuelles, les chercheurs évaluent comment des modifications dans l’entrée affectent les résultats.

Lors de leur analyse, ils ont observé que les modèles de langage, tout en fournissant des justifications solides, peuvent en réalité s’appuyer sur des biais liés à des facteurs sociaux tels que le sexe ou la race.

Malgré certaines limitations, cette approche promet d’améliorer la transparence des systèmes d’intelligence artificielle et la confiance des utilisateurs.

Continuer à lire

Santé

Nouveaux lieux d’intelligence artificielle

Publié

on

Un outil d’intelligence artificielle (IA) développé par des chercheurs de l’Université Edith Cowan, en collaboration avec l’Université du Manitoba, permet de détecter rapidement la calcification aortique abdominale (AAC) à partir d’analyses de densité osseuse.

Cet algorithme analyse des milliers d’images issues d’évaluations cliniques de routine et réduit significativement le temps d’évaluation, passant de plusieurs minutes à moins d’une minute.

Cette innovation révèle que 58 % des patients âgés présentent des niveaux modérés à élevés d’AAC, souvent sans en avoir connaissance, les exposant à des risques cardiovasculaires accrus, notamment les femmes, souvent sous-évaluées pour les maladies cardiaques.

L’algorithme a également mis en lumière un lien entre AAC et risques de chutes et de fractures.

Les patients avec des scores AAC élevés présentent une probabilité accrue d’hospitalisation et de blessures liées aux chutes.

Les chercheurs soulignent l’importance de considérer la santé vasculaire dans l’évaluation des risques de chutes, une approche qui pourrait permettre de mieux identifier et traiter les patients à risque, en utilisant des équipements de densité osseuse largement disponibles.

L’objectif est d’améliorer la prise en charge des personnes âgées grâce à une évaluation plus complète de leur santé.

Continuer à lire

Recherche

Les modèles linguistiques avancés rencontrent des difficultés avec la coordination dans les jeux sociaux et collaboratifs.

Publié

on

Une étude menée par des chercheurs de l’Institut de l’IA de Helmholtz Munich, de l’Institut Max Planck et de l’Université de Tübingen a exploré comment les modèles de grandes langues (LLM), comme ChatGPT, interagissent dans des scénarios de jeux répétitifs.

Ils ont constaté que, bien que ces modèles excellent dans des jeux compétitifs, comme le dilemme du prisonnier, ils rencontrent des difficultés dans des contextes nécessitant des compromis et la coordination, comme la bataille des sexes.

Les résultats indiquent que les LLM tendent à agir dans leur propre intérêt, ce qui souligne un manque d’intelligence sociale robuste.

Cependant, les chercheurs ont aussi identifié des méthodes pour améliorer leurs capacités sociales, comme la prévision des actions des partenaires avant d’agir.

Ces découvertes pourraient potentiellement permettre de développer de futurs modèles d’IA plus conscientes socialement, capables de mieux collaborer dans des environnements variés tels que la santé, l’éducation ou le soutien social.

Les chercheurs envisagent d’approfondir leurs recherches en incorporant des interactions plus complexes, avec plusieurs joueurs et davantage d’informations contextuelles.

Continuer à lire

Populaires