Santé

Une nouvelle approche permet aux modèles d’IA d’effacer des données privées et protégées par le droit d’auteur.

Publié

on

Une équipe d’informaticiens de l’Université de Californie à Riverside a mis au point une méthode innovante permettant d’effacer les données privées et protégées par le droit d’auteur des modèles d’intelligence artificielle sans avoir accès aux données originales.

Cette avancée, présentée lors de la Conférence internationale sur l’apprentissage automatique à Vancouver, répond à des préoccupations croissantes concernant la conservation non désirée de ces informations dans les modèles d’IA, même après les tentatives des créateurs pour les sécuriser.

La technique garantit que les données ciblées soient supprimées tout en maintenant la fonctionnalité des modèles sans nécessiter leurs données d’origine, ce qui représente un gain en efficacité en termes de ressources.

Le cadre élaboré, basé sur un processus d’optimisation des modèles d’IA, permet aux développeurs d’utiliser des ensembles de données de substitution pour « oublier » les informations tout en ajustant les paramètres et en ajoutant du bruit aléatoire.

Les résultats, obtenus à partir d’ensembles de données tant synthétiques que réelles, montrent des garanties de confidentialité comparables à celles obtenues par un recyclage complet des modèles, mais avec une consommation d’énergie réduite.

Cette méthode pourrait avoir des implications majeures pour la gestion des données sensibles dans divers secteurs, notamment les médias et la santé, en rendant possible la suppression effective des contenus personnels ou protégés.

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Populaires

Quitter la version mobile