Claude Opus agora pode desligar conversas prejudiciais

18 de agosto de 2025
Automatize experiências conversacionais com IA
Descubra o poder de uma plataforma que lhe oferece controle e flexibilidade para proporcionar experiências valiosas aos clientes em grande escala.
Agende uma demonstração

A Anthropic introduziu um novo recurso no Claude Opus 4 e 4.1, permitindo que a IA encerre conversas em casos raros e extremos de interações prejudiciais ou abusivas. Essa decisão decorre de um trabalho exploratório sobre o bem-estar da IA e de esforços mais amplos para melhorar o alinhamento do modelo e as salvaguardas do usuário. Durante os testes, Claude demonstrou uma forte aversão a tarefas prejudiciais e sinais de angústia quando confrontado com solicitações relacionadas a violência, exploração ou abuso. O recurso é ativado apenas como último recurso, após várias redirecionamentos falharem ou quando explicitamente solicitado por um usuário. Embora raras, essas intervenções destacam o compromisso em mitigar riscos sem comprometer a experiência do usuário. As conversas ainda podem ser reiniciadas ou revisadas por meio de edições.

Por que Inbenta

Com nossa solução de IA composta, seu agente virtual aprende continuamente com cada interação, alcançando mais de 99% de precisão.
Aprenda mais
Logotipo da Gartner Peer Insights
Com base em mais de 20 avaliações de pares
Serviço e suporte

Postagens relacionadas da AI This Week

Empreendedor de tecnologia usa o ChatGPT para desenvolver uma vacina contra o câncer para um cão em estado terminal
Leia mais
O CEO da Adobe, Shantanu Narayen, planeja deixar o cargo após 18 anos em meio a pressões relacionadas à IA
Leia mais
Netflix investe até US$ 600 milhões na startup de inteligência artificial InterPositive, de Ben Affleck
Leia mais