Avanço na IA apaga dados privados e protegidos por direitos autorais dos modelos
Cientistas da UC Riverside introduziram um método inovador para apagar dados privados e protegidos por direitos autorais de modelos de IA sem precisar acessar os conjuntos de dados de treinamento originais. A abordagem de “desaprendizagem certificada sem fonte” substitui os dados originais por um conjunto de dados substituto e injeta ruído aleatório calibrado para alterar os parâmetros do modelo, garantindo que as informações selecionadas sejam irrecuperáveis. A técnica mantém a funcionalidade dos modelos, reduzindo a necessidade dispendiosa e intensiva em energia de um retreinamento completo. Essa inovação aborda preocupações legais e éticas crescentes, como a conformidade com regulamentos de privacidade e a proteção de material protegido por direitos autorais usado para treinar sistemas de IA como o GPT. Os pesquisadores demonstraram a eficácia usando conjuntos de dados sintéticos e do mundo real, oferecendo fortes garantias de privacidade.
Por que Inbenta

