Un avance en IA borra datos privados y protegidos por derechos de autor de los modelos
Científicos de la Universidad de California en Riverside han presentado un método revolucionario para borrar datos privados y protegidos por derechos de autor de los modelos de IA sin necesidad de acceder a los conjuntos de datos de entrenamiento originales. Su enfoque de «desaprendizaje certificado sin fuente» sustituye los datos originales por un conjunto de datos sustitutivo e inyecta ruido aleatorio calibrado para alterar los parámetros del modelo, lo que garantiza que la información seleccionada sea irrecuperable. La técnica mantiene la funcionalidad de los modelos y reduce la necesidad de un reentrenamiento completo, que resulta costoso y consume mucha energía. Esta innovación aborda las crecientes preocupaciones legales y éticas, como el cumplimiento de las normativas de privacidad y la protección del material protegido por derechos de autor utilizado para entrenar sistemas de IA como GPT. Los investigadores demostraron su eficacia utilizando conjuntos de datos sintéticos y del mundo real, lo que ofrece sólidas garantías de privacidad.
¿Por qué Inbenta?

