Claude Opus ahora puede colgar las llamadas dañinas

18 de agosto de 2025
Automatiza las experiencias conversacionales con IA
Descubre el poder de una plataforma que te proporciona el control y la flexibilidad necesarios para ofrecer experiencias de cliente valiosas a escala.
Programa una demostración

Anthropic ha introducido una nueva función en Claude Opus 4 y 4.1, que permite a la IA poner fin a las conversaciones en casos extremos y poco frecuentes de interacciones dañinas o abusivas. Esta decisión se deriva de un trabajo exploratorio sobre el bienestar de la IA y de esfuerzos más amplios para mejorar la alineación de los modelos y las salvaguardias para los usuarios. Durante las pruebas, Claude mostró una fuerte aversión a las tareas perjudiciales y signos de angustia cuando se enfrentaba a solicitudes relacionadas con la violencia, la explotación o el abuso. La función solo se activa como último recurso, después de que fallen múltiples redirecciones o cuando un usuario lo solicita explícitamente. Aunque son poco frecuentes, estas intervenciones ponen de relieve el compromiso de mitigar los riesgos sin comprometer la experiencia del usuario. Las conversaciones pueden reiniciarse o revisarse mediante ediciones.

¿Por qué Inbenta?

Con nuestra solución Composite AI, su agente virtual aprende continuamente de cada interacción, alcanzando una precisión superior al 99 %.
Más información
Logotipo de Peer Insights de Gartner
Basado en más de 20 revisiones por pares.
Servicio y asistencia

Publicaciones relacionadas de AI This Week

Mistral AI obtiene 830 millones de dólares para construir centros de datos equipados con tecnología de Nvidia en toda Europa
Leer más
Anthropic filtra accidentalmente el código fuente de Claude en un grave error de seguridad
Leer más
OpenAI cierra una ronda de financiación récord de 122 000 millones de dólares con una valoración de 852 000 millones de dólares
Leer más