Un avance en IA borra datos privados y protegidos por derechos de autor de los modelos

1 de septiembre de 2025
Automatiza las experiencias conversacionales con IA
Descubre el poder de una plataforma que te proporciona el control y la flexibilidad necesarios para ofrecer experiencias de cliente valiosas a escala.
Programa una demostración

Científicos de la Universidad de California en Riverside han presentado un método revolucionario para borrar datos privados y protegidos por derechos de autor de los modelos de IA sin necesidad de acceder a los conjuntos de datos de entrenamiento originales. Su enfoque de «desaprendizaje certificado sin fuente» sustituye los datos originales por un conjunto de datos sustitutivo e inyecta ruido aleatorio calibrado para alterar los parámetros del modelo, lo que garantiza que la información seleccionada sea irrecuperable. La técnica mantiene la funcionalidad de los modelos y reduce la necesidad de un reentrenamiento completo, que resulta costoso y consume mucha energía. Esta innovación aborda las crecientes preocupaciones legales y éticas, como el cumplimiento de las normativas de privacidad y la protección del material protegido por derechos de autor utilizado para entrenar sistemas de IA como GPT. Los investigadores demostraron su eficacia utilizando conjuntos de datos sintéticos y del mundo real, lo que ofrece sólidas garantías de privacidad.

Leer más

¿Por qué Inbenta?

Con nuestra solución Composite AI, su agente virtual aprende continuamente de cada interacción, alcanzando una precisión superior al 99 %.
Más información
Logotipo de Peer Insights de Gartner
Basado en más de 20 revisiones por pares.
Servicio y asistencia

Publicaciones relacionadas de AI This Week

Anthropic integra Claude directamente en el software del lugar de trabajo.
Leer más
Los Emiratos Árabes Unidos presentan su propio modelo de inteligencia artificial para competir con sus rivales globales
Leer más
Microsoft reclama la supremacía en chips de IA
Leer más