Outils

Comment l’IA multilingue peut parfois amplifying le biais.

Publié

on

Des chercheurs de l’Université Johns Hopkins ont constaté que les outils d’intelligence artificielle, tels que ChatGPT, accentuent la domination de l’anglais et d’autres langues majoritaires, tout en négligeant les langues minoritaires.

Ces modèles, au lieu de favoriser un accès équitable à l’information, créent des « cocons d’information » qui renforcent les biais linguistiques existants.

En analysant la couverture d’événements comme les guerres en Israël-Gaza et en Ukraine, les chercheurs ont démontré que les réponses des modèles de langage étaient souvent biaisées en faveur de la langue de la requête, ignorerant les perspectives d’autres langues, coûtant la diversité d’information.

Pour remédier à cette problématique, les chercheurs prévoient de développer des ensembles de données dynamiques et encouragent la communauté scientifique à explorer des formations de modèles plus inclusives.

Ils insistent sur l’importance d’avoir un accès équitable aux informations, peu importe la langue, pour permettre aux utilisateurs de prendre des décisions éclairées.

En conséquence, ils tout relèvent que le pouvoir concentré dans les technologies d’IA présente des risques critiques, notamment en facilitant la désinformation et en réduisant la crédibilité des systèmes.

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Populaires

Quitter la version mobile