Claude Opus agora pode desligar conversas prejudiciais

18 de agosto de 2025
Automatize experiências conversacionais com IA
Descubra o poder de uma plataforma que lhe oferece controle e flexibilidade para proporcionar experiências valiosas aos clientes em grande escala.
Agende uma demonstração

A Anthropic introduziu um novo recurso no Claude Opus 4 e 4.1, permitindo que a IA encerre conversas em casos raros e extremos de interações prejudiciais ou abusivas. Essa decisão decorre de um trabalho exploratório sobre o bem-estar da IA e de esforços mais amplos para melhorar o alinhamento do modelo e as salvaguardas do usuário. Durante os testes, Claude demonstrou uma forte aversão a tarefas prejudiciais e sinais de angústia quando confrontado com solicitações relacionadas a violência, exploração ou abuso. O recurso é ativado apenas como último recurso, após várias redirecionamentos falharem ou quando explicitamente solicitado por um usuário. Embora raras, essas intervenções destacam o compromisso em mitigar riscos sem comprometer a experiência do usuário. As conversas ainda podem ser reiniciadas ou revisadas por meio de edições.

Por que Inbenta

Com nossa solução de IA composta, seu agente virtual aprende continuamente com cada interação, alcançando mais de 99% de precisão.
Aprenda mais
Logotipo da Gartner Peer Insights
Com base em mais de 20 avaliações de pares
Serviço e suporte

Postagens relacionadas da AI This Week

Yann LeCun levanta US$ 1 bilhão para startup de IA desafiar a obsessão do Vale do Silício por chatbots
Leia mais
Líder da OpenAI Robotics abandona empresa devido a acordo com o Pentágono
Leia mais
OpenAI apresenta GPT-5.4 com controle nativo de computador e pacote financeiro
Leia mais