Avanço na IA apaga dados privados e protegidos por direitos autorais dos modelos

1º de setembro de 2025
Automatize experiências conversacionais com IA
Descubra o poder de uma plataforma que lhe oferece controle e flexibilidade para proporcionar experiências valiosas aos clientes em grande escala.
Agende uma demonstração

Cientistas da UC Riverside introduziram um método inovador para apagar dados privados e protegidos por direitos autorais de modelos de IA sem precisar acessar os conjuntos de dados de treinamento originais. A abordagem de “desaprendizagem certificada sem fonte” substitui os dados originais por um conjunto de dados substituto e injeta ruído aleatório calibrado para alterar os parâmetros do modelo, garantindo que as informações selecionadas sejam irrecuperáveis. A técnica mantém a funcionalidade dos modelos, reduzindo a necessidade dispendiosa e intensiva em energia de um retreinamento completo. Essa inovação aborda preocupações legais e éticas crescentes, como a conformidade com regulamentos de privacidade e a proteção de material protegido por direitos autorais usado para treinar sistemas de IA como o GPT. Os pesquisadores demonstraram a eficácia usando conjuntos de dados sintéticos e do mundo real, oferecendo fortes garantias de privacidade.

Por que Inbenta

Com nossa solução de IA composta, seu agente virtual aprende continuamente com cada interação, alcançando mais de 99% de precisão.
Aprenda mais
Logotipo da Gartner Peer Insights
Com base em mais de 20 avaliações de pares
Serviço e suporte

Postagens relacionadas da AI This Week

A Mistral AI levanta US$ 830 milhões para construir centros de dados equipados com tecnologia da Nvidia em toda a Europa
Leia mais
A Anthropic vaza acidentalmente o código-fonte do Claude em um grave erro de segurança
Leia mais
A OpenAI fecha rodada de financiamento recorde de US$ 122 bilhões com avaliação de US$ 852 bilhões
Leia mais