Claude Opus agora pode desligar conversas prejudiciais

18 de agosto de 2025
Automatize experiências conversacionais com IA
Descubra o poder de uma plataforma que lhe oferece controle e flexibilidade para proporcionar experiências valiosas aos clientes em grande escala.
Agende uma demonstração

A Anthropic introduziu um novo recurso no Claude Opus 4 e 4.1, permitindo que a IA encerre conversas em casos raros e extremos de interações prejudiciais ou abusivas. Essa decisão decorre de um trabalho exploratório sobre o bem-estar da IA e de esforços mais amplos para melhorar o alinhamento do modelo e as salvaguardas do usuário. Durante os testes, Claude demonstrou uma forte aversão a tarefas prejudiciais e sinais de angústia quando confrontado com solicitações relacionadas a violência, exploração ou abuso. O recurso é ativado apenas como último recurso, após várias redirecionamentos falharem ou quando explicitamente solicitado por um usuário. Embora raras, essas intervenções destacam o compromisso em mitigar riscos sem comprometer a experiência do usuário. As conversas ainda podem ser reiniciadas ou revisadas por meio de edições.

Leia mais

Por que Inbenta

Com nossa solução de IA composta, seu agente virtual aprende continuamente com cada interação, alcançando mais de 99% de precisão.
Aprenda mais
Logotipo da Gartner Peer Insights
Com base em mais de 20 avaliações de pares
Serviço e suporte

Postagens relacionadas da AI This Week

Fundadores da Fitbit retornam com aplicativo de saúde familiar com inteligência artificial
Leia mais
Claude Sonnet 5 Vazamento gera agitação na semana do Super Bowl
Leia mais
Musk incorpora a xAI à SpaceX em megaacordo privado
Leia mais