Des scientifiques de l'Université de Californie à Riverside ont mis au point une méthode révolutionnaire pour effacer les données privées et protégées par le droit d'auteur des modèles d'intelligence artificielle sans avoir besoin d'accéder aux ensembles de données d'entraînement originaux. Leur approche de "désapprentissage certifié sans source" remplace les données originales par un ensemble de données de substitution et injecte du bruit aléatoire calibré pour modifier les paramètres du modèle, ce qui garantit que les informations sélectionnées sont irrécupérables. Cette technique préserve la fonctionnalité des modèles tout en réduisant le besoin coûteux et énergivore d'un réapprentissage complet. Cette innovation répond à des préoccupations juridiques et éthiques croissantes, telles que le respect des réglementations en matière de protection de la vie privée et la protection du matériel protégé par des droits d'auteur utilisé pour former des systèmes d'IA tels que le GPT. Les chercheurs ont démontré l'efficacité de cette méthode en utilisant des ensembles de données synthétiques et réelles, offrant ainsi de solides garanties en matière de respect de la vie privée.