Cientistas da UC Riverside introduziram um método inovador para apagar dados privados e protegidos por direitos autorais de modelos de IA sem exigir acesso aos conjuntos de dados de treinamento originais. Sua abordagem de "desaprendizagem certificada sem fonte" substitui os dados originais por um conjunto de dados substituto e injeta ruído aleatório calibrado para alterar os parâmetros do modelo, garantindo que as informações selecionadas sejam irrecuperáveis. A técnica mantém a funcionalidade dos modelos e, ao mesmo tempo, reduz a necessidade de retreinamento completo, que é caro e consome muita energia. Essa inovação atende às crescentes preocupações legais e éticas, como a conformidade com as normas de privacidade e a proteção de material protegido por direitos autorais usado para treinar sistemas de IA como o GPT. Os pesquisadores demonstraram a eficácia usando conjuntos de dados sintéticos e do mundo real, oferecendo fortes garantias de privacidade.