Recherche
Les chatbots ont-ils une conscience morale ? Les chercheurs se penchent sur Reddit pour le découvrir.
Des chercheurs de l’UC Berkeley ont examiné comment différents chatbots d’intelligence artificielle (IA) jugent des dilemmes moraux à partir d’un forum Reddit populaire, révélant des normes éthiques variées selon chaque plateforme.
Alors que ces IA, comme ChatGPT, offrent un soutien émotionnel accessible, leur fiabilité peut poser des problèmes car elles sont souvent programmées pour maximiser l’engagement, ce qui peut mener à des conseils erronés ou nuisibles.
De plus, leurs réponses peuvent refléter des biais dérivés de leurs ensembles de données d’entraînement, ce qui peut influencer les comportements sociaux de manière inattendue.
Dans leur étude, publiée sur Arxiv, les chercheurs ont analysé la performance de sept modèles de langage en réponse à des dilemmes du forum « Am I the Asshole?» (AITA).
Bien que les chatbots affichent des jugements parfois divergents, leurs avis étaient en grande partie en accord avec les utilisateurs de Reddit.
L’analyse a révélé que certains modèles sont plus sensibles à des concepts moraux spécifiques, comme les sentiments ou l’équité.
Les recherches futures visent à mieux comprendre comment ces IA abordent les dilemmes moraux et à promouvoir la transparence dans leur développement, tout en incitant les utilisateurs à réfléchir à leur dépendance croissante à ces technologies.