Entreprise

Les utilisateurs humains font face à un nouveau dilemme : se dévêtir ou partager leurs données pour l’entraînement des IA.

Publié

on

Anthropic modifie sa gestion des données des utilisateurs, demandant à ceux utilisant Claude de choisir d’ici le 28 septembre s’ils souhaitent que leurs conversations soient utilisées pour entraîner des modèles d’IA.

Précédemment, les données de chat étaient supprimées dans les 30 jours, mais désormais, les conversations seront retenues jusqu’à cinq ans pour ceux qui ne choisissent pas de se retirer.

Ces changements concernent les utilisateurs des versions gratuites et payantes de Claude, tandis que les clients commerciaux ne sont pas impactés.

Cette décision semble être motivée par la nécessité de collecter des données de qualité pour améliorer la performance de ses modèles face à la concurrence, notamment face à OpenAI et Google.

Cependant, cette évolution suscite des inquiétudes quant à la transparence des politiques de consentement, de nombreux utilisateurs n’étant pas pleinement conscients des modifications apportées.

Des experts de la confidentialité soulignent que la complexité des technologies d’IA rend le consentement éclairé quasi inaccessible, exacerbant ainsi les défis éthiques et légaux auxquels ces entreprises font face.

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Populaires

Quitter la version mobile