Avanço na IA apaga dados privados e protegidos por direitos autorais dos modelos

1º de setembro de 2025
Automatize experiências conversacionais com IA
Descubra o poder de uma plataforma que lhe oferece controle e flexibilidade para proporcionar experiências valiosas aos clientes em grande escala.
Agende uma demonstração

Cientistas da UC Riverside introduziram um método inovador para apagar dados privados e protegidos por direitos autorais de modelos de IA sem precisar acessar os conjuntos de dados de treinamento originais. A abordagem de “desaprendizagem certificada sem fonte” substitui os dados originais por um conjunto de dados substituto e injeta ruído aleatório calibrado para alterar os parâmetros do modelo, garantindo que as informações selecionadas sejam irrecuperáveis. A técnica mantém a funcionalidade dos modelos, reduzindo a necessidade dispendiosa e intensiva em energia de um retreinamento completo. Essa inovação aborda preocupações legais e éticas crescentes, como a conformidade com regulamentos de privacidade e a proteção de material protegido por direitos autorais usado para treinar sistemas de IA como o GPT. Os pesquisadores demonstraram a eficácia usando conjuntos de dados sintéticos e do mundo real, oferecendo fortes garantias de privacidade.

Leia mais

Por que Inbenta

Com nossa solução de IA composta, seu agente virtual aprende continuamente com cada interação, alcançando mais de 99% de precisão.
Aprenda mais
Logotipo da Gartner Peer Insights
Com base em mais de 20 avaliações de pares
Serviço e suporte

Postagens relacionadas da AI This Week

A Anthropic integra o Claude diretamente no software do local de trabalho
Leia mais
Emirados Árabes Unidos revelam seu próprio modelo de IA para enfrentar rivais globais
Leia mais
Microsoft reivindica supremacia em chips de IA
Leia mais