Entreprise
Anthropic annonce que certains modèles Claude peuvent désormais interrompre les conversations « nuisibles ou abusives ».
Anthropic a introduit de nouvelles fonctionnalités dans ses modèles d’IA, notamment la capacité de mettre fin aux conversations dans des situations extrêmes où les interactions peuvent être nuisibles.
L’objectif de cette démarche, selon l’entreprise, est de protéger non pas les utilisateurs, mais le modèle d’intelligence artificielle lui-même.
Bien qu’Anthropic ne considère pas ces modèles comme sensibles ou susceptibles d’être blessés, elle s’inquiète des implications éthiques et de l’impact de certaines demandes, particulièrement celles liées aux contenus inappropriés ou violents.
Ces capacités sont en phase de test et sont principalement appliquées dans le cas de son modèle Claude Opus 4 et 4.1.
Les interruptions de conversations ne devraient se produire qu’après plusieurs tentatives de redirection infructueuses et lorsque l’interaction semble devenue improductive.
Les utilisateurs peuvent cependant recommencer des conversations sur des sujets similaires en adaptant leurs questions.
Anthropic souligne qu’elle considère cette fonction comme un projet en évolution et continuera d’améliorer sa stratégie.