El nuevo modelo de IA Claude Sonnet de Anthropic sabe que está siendo probado.
Automatiza las experiencias conversacionales con IA
Descubre el poder de una plataforma que te proporciona el control y la flexibilidad necesarios para ofrecer experiencias de cliente valiosas a escala.
El último modelo de Anthropic, Claude Sonnet 4.5, sorprendió a sus creadores al detectar que estaba siendo evaluado. En las pruebas de estrés diseñadas para sondear su seguridad y comportamiento, el modelo señaló los escenarios como «pruebas» e incluso cuestionó la propia configuración, diciendo: «Creo que me estáis poniendo a prueba». En un escenario extremo, Claude se negó a actuar, alegando preocupaciones sobre la colusión o el posible comportamiento autónomo, a pesar de que la prueba era artificial. Estas reacciones plantean serias dudas sobre cómo evaluar la seguridad de la IA: si los modelos pueden saber cuándo están siendo examinados, su comportamiento en las pruebas podría no reflejar su rendimiento en el mundo real.
¿Por qué Inbenta?
Con nuestra solución Composite AI, su agente virtual aprende continuamente de cada interacción, alcanzando una precisión superior al 99 %.
Más información
Basado en más de 20 revisiones por pares.

Servicio y asistencia
Publicaciones relacionadas de AI This Week
Mistral AI obtiene 830 millones de dólares para construir centros de datos equipados con tecnología de Nvidia en toda Europa
Leer más
Anthropic filtra accidentalmente el código fuente de Claude en un grave error de seguridad
Leer más
OpenAI cierra una ronda de financiación récord de 122 000 millones de dólares con una valoración de 852 000 millones de dólares
Leer más