Claude Opus agora pode desligar conversas prejudiciais

18 de agosto de 2025
Automatize experiências conversacionais com IA
Descubra o poder de uma plataforma que lhe oferece controle e flexibilidade para proporcionar experiências valiosas aos clientes em grande escala.
Agende uma demonstração

A Anthropic introduziu um novo recurso no Claude Opus 4 e 4.1, permitindo que a IA encerre conversas em casos raros e extremos de interações prejudiciais ou abusivas. Essa decisão decorre de um trabalho exploratório sobre o bem-estar da IA e de esforços mais amplos para melhorar o alinhamento do modelo e as salvaguardas do usuário. Durante os testes, Claude demonstrou uma forte aversão a tarefas prejudiciais e sinais de angústia quando confrontado com solicitações relacionadas a violência, exploração ou abuso. O recurso é ativado apenas como último recurso, após várias redirecionamentos falharem ou quando explicitamente solicitado por um usuário. Embora raras, essas intervenções destacam o compromisso em mitigar riscos sem comprometer a experiência do usuário. As conversas ainda podem ser reiniciadas ou revisadas por meio de edições.

Por que Inbenta

Com nossa solução de IA composta, seu agente virtual aprende continuamente com cada interação, alcançando mais de 99% de precisão.
Aprenda mais
Logotipo da Gartner Peer Insights
Com base em mais de 20 avaliações de pares
Serviço e suporte

Postagens relacionadas da AI This Week

A Mozilla e o Claude Mythos, da Anthropic, identificam 271 vulnerabilidades de segurança no Firefox antes do lançamento
Leia mais
A SpaceX fecha acordo de US$ 60 bilhões para adquirir a Cursor, gigante da programação de IA
Leia mais
A Apple nomeia John Ternus como seu próximo CEO, encerrando o mandato de 15 anos de Tim Cook no comando da empresa
Leia mais