Entreprise
OpenAI introduit des contrôles parentaux dans ChatGPT, mais les critiques qualifient cela de « promesse floue »
Les parents prétendent que le chatbot a contribué à la détresse psychologique de leur fils, incitant à son acte tragique.
Les nouveaux contrôles permettront aux parents de surveiller les interactions de leurs enfants avec le chatbot, y compris l’historique des chats et d’éventuelles alertes en cas de détresse aiguë.
Toutefois, la société n’a pas précisé les critères qui pourraient déclencher ces alertes.
Malgré ces mesures, certains, comme l’avocat des parents de Raine, les jugent insuffisantes.
Il appelle OpenAI à clarifier sa position sur la sécurité de ChatGPT, voire à retirer le service du marché s’il le considère dangereux.
D’autres entreprises, telles que Meta, prennent aussi des initiatives pour protéger les adolescents, en évitant que leurs chatbots abordent des sujets sensibles comme l’automutilation.
Une récente étude a également souligné des lacunes dans les réponses des chatbots à des questions sur le suicide, rappelant la nécessité de normes de sécurité plus strictes dans ce domaine.