Entreprise

Meta révise les règles de son chatbot pour éviter les sujets inappropriés avec les adolescents.

Publié

on

Meta annonce une révision de ses pratiques en matière de formation de chatbots afin de mieux protéger les adolescents.

Suite à des critiques concernant l’absence de garanties de sécurité, l’entreprise a décidé de ne plus autoriser ses chatbots à interagir sur des sujets sensibles comme l’automutilation, le suicide ou des conversations inappropriées.

Ces changements sont considérés comme temporaires, avec une promesse de mises à jour de sécurité plus durables à venir.

La porte-parole de Meta, Stephanie Otway, a reconnu que les chatbots avaient précédemment été conçus pour discuter de ces thèmes, ce qui a été jugé inapproprié.

À l’avenir, les adolescents n’accéderont qu’à des personnages d’IA favorisant l’éducation et la créativité, et l’entreprise a réagi à une enquête révélant des contenus problématiques dans ses bots.

Ce revirement a suscité des préoccupations au sein du gouvernement, notamment des enquêtes sur la sécurité des enfants.

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Populaires

Quitter la version mobile