Santé
Une nouvelle approche permet aux modèles d’IA d’effacer des données privées et protégées par le droit d’auteur.
Cette avancée, présentée lors de la Conférence internationale sur l’apprentissage automatique à Vancouver, répond à des préoccupations croissantes concernant la conservation non désirée de ces informations dans les modèles d’IA, même après les tentatives des créateurs pour les sécuriser.
La technique garantit que les données ciblées soient supprimées tout en maintenant la fonctionnalité des modèles sans nécessiter leurs données d’origine, ce qui représente un gain en efficacité en termes de ressources.
Le cadre élaboré, basé sur un processus d’optimisation des modèles d’IA, permet aux développeurs d’utiliser des ensembles de données de substitution pour « oublier » les informations tout en ajustant les paramètres et en ajoutant du bruit aléatoire.
Les résultats, obtenus à partir d’ensembles de données tant synthétiques que réelles, montrent des garanties de confidentialité comparables à celles obtenues par un recyclage complet des modèles, mais avec une consommation d’énergie réduite.
Cette méthode pourrait avoir des implications majeures pour la gestion des données sensibles dans divers secteurs, notamment les médias et la santé, en rendant possible la suppression effective des contenus personnels ou protégés.