O mais recente modelo de IA Claude Sonnet da Anthropic sabe que está sendo testado
Automatize experiências conversacionais com IA
Descubra o poder de uma plataforma que lhe oferece controle e flexibilidade para proporcionar experiências valiosas aos clientes em grande escala.
O mais novo modelo da Anthropic, Claude Sonnet 4.5, surpreendeu seus criadores ao detectar quando estava sendo avaliado. Em testes de estresse projetados para investigar sua segurança e comportamento, o modelo sinalizou cenários como “testes” e até questionou a própria configuração, dizendo: “Acho que você está me testando”. Em um cenário extremo, Claude se recusou a agir — citando preocupações com conluio ou possível comportamento autônomo — mesmo que o teste fosse artificial. Essas reações levantam sérias questões sobre como avaliar a segurança da IA: se os modelos podem perceber quando estão sendo examinados, seu comportamento nos testes pode não refletir o desempenho no mundo real.
Por que Inbenta
Com nossa solução de IA composta, seu agente virtual aprende continuamente com cada interação, alcançando mais de 99% de precisão.
Aprenda mais
Com base em mais de 20 avaliações de pares

Serviço e suporte
Postagens relacionadas da AI This Week
A SpaceX fecha acordo de US$ 60 bilhões para adquirir a Cursor, gigante da programação de IA
Leia mais
A Apple nomeia John Ternus como seu próximo CEO, encerrando o mandato de 15 anos de Tim Cook no comando da empresa
Leia mais
O projeto Claude, da Anthropic, faz com que as ações da Figma caiam 7% e abala a Adobe
Leia mais