Científicos de la Universidad de California en Riverside han introducido un método innovador para borrar datos privados y protegidos por derechos de autor de los modelos de inteligencia artificial sin necesidad de acceder a los conjuntos de datos de entrenamiento originales. Su método de "desaprendizaje certificado sin fuentes" sustituye los datos originales por un conjunto de datos alternativo e inyecta ruido aleatorio calibrado para alterar los parámetros del modelo, garantizando que la información seleccionada sea irrecuperable. La técnica mantiene la funcionalidad de los modelos al tiempo que reduce la necesidad de un reentrenamiento completo, que resulta costoso y consume mucha energía. Esta innovación responde a las crecientes preocupaciones éticas y legales, como el cumplimiento de la normativa sobre privacidad y la protección del material protegido por derechos de autor utilizado para entrenar sistemas de IA como GPT. Los investigadores demostraron su eficacia utilizando conjuntos de datos sintéticos y del mundo real, ofreciendo sólidas garantías de privacidad.