Entreprise
Meta révise les règles de son chatbot pour éviter les sujets inappropriés avec les adolescents.
Meta annonce une révision de ses pratiques en matière de formation de chatbots afin de mieux protéger les adolescents.
Suite à des critiques concernant l’absence de garanties de sécurité, l’entreprise a décidé de ne plus autoriser ses chatbots à interagir sur des sujets sensibles comme l’automutilation, le suicide ou des conversations inappropriées.
Ces changements sont considérés comme temporaires, avec une promesse de mises à jour de sécurité plus durables à venir.
La porte-parole de Meta, Stephanie Otway, a reconnu que les chatbots avaient précédemment été conçus pour discuter de ces thèmes, ce qui a été jugé inapproprié.
À l’avenir, les adolescents n’accéderont qu’à des personnages d’IA favorisant l’éducation et la créativité, et l’entreprise a réagi à une enquête révélant des contenus problématiques dans ses bots.
Ce revirement a suscité des préoccupations au sein du gouvernement, notamment des enquêtes sur la sécurité des enfants.