Avanço na IA apaga dados privados e protegidos por direitos autorais dos modelos

1º de setembro de 2025
Automatize experiências conversacionais com IA
Descubra o poder de uma plataforma que lhe oferece controle e flexibilidade para proporcionar experiências valiosas aos clientes em grande escala.
Agende uma demonstração

Cientistas da UC Riverside introduziram um método inovador para apagar dados privados e protegidos por direitos autorais de modelos de IA sem precisar acessar os conjuntos de dados de treinamento originais. A abordagem de “desaprendizagem certificada sem fonte” substitui os dados originais por um conjunto de dados substituto e injeta ruído aleatório calibrado para alterar os parâmetros do modelo, garantindo que as informações selecionadas sejam irrecuperáveis. A técnica mantém a funcionalidade dos modelos, reduzindo a necessidade dispendiosa e intensiva em energia de um retreinamento completo. Essa inovação aborda preocupações legais e éticas crescentes, como a conformidade com regulamentos de privacidade e a proteção de material protegido por direitos autorais usado para treinar sistemas de IA como o GPT. Os pesquisadores demonstraram a eficácia usando conjuntos de dados sintéticos e do mundo real, oferecendo fortes garantias de privacidade.

Leia mais

Por que Inbenta

Com nossa solução de IA composta, seu agente virtual aprende continuamente com cada interação, alcançando mais de 99% de precisão.
Aprenda mais
Logotipo da Gartner Peer Insights
Com base em mais de 20 avaliações de pares
Serviço e suporte

Postagens relacionadas da AI This Week

OpenAI prepara um plano ChatGPT Pro Lite de US$ 100
Leia mais
Taalas revela chip de IA hardcore voltado para inferência instantânea
Leia mais
NIH amplia trabalho com IA à medida que equipes se tornam mais enxutas
Leia mais