Une avancée majeure dans le domaine de l'IA permet d'effacer les données privées et protégées par le droit d'auteur des modèles
Des scientifiques de l'université de Californie à Riverside ont mis au point une méthode révolutionnaire permettant d'effacer les données privées et protégées par des droits d'auteur des modèles d'IA sans avoir besoin d'accéder aux ensembles de données d'entraînement d'origine. Leur approche dite « d'apprentissage certifié sans source » consiste à remplacer les données d'origine par un ensemble de données de substitution et à injecter un bruit aléatoire calibré afin de modifier les paramètres du modèle, garantissant ainsi que les informations sélectionnées sont irrécupérables. Cette technique préserve la fonctionnalité des modèles tout en réduisant le besoin coûteux et énergivore d'un réentraînement complet. Cette innovation répond à des préoccupations juridiques et éthiques croissantes, telles que le respect des réglementations en matière de confidentialité et la protection des contenus protégés par des droits d'auteur utilisés pour entraîner des systèmes d'IA comme GPT. Les chercheurs ont démontré l'efficacité de cette méthode à l'aide d'ensembles de données synthétiques et réels, offrant ainsi de solides garanties en matière de confidentialité.
Pourquoi Inbenta ?

