Claude Opus agora pode desligar conversas prejudiciais

18 de agosto de 2025
Automatize experiências conversacionais com IA
Descubra o poder de uma plataforma que lhe oferece controle e flexibilidade para proporcionar experiências valiosas aos clientes em grande escala.
Agende uma demonstração

A Anthropic introduziu um novo recurso no Claude Opus 4 e 4.1, permitindo que a IA encerre conversas em casos raros e extremos de interações prejudiciais ou abusivas. Essa decisão decorre de um trabalho exploratório sobre o bem-estar da IA e de esforços mais amplos para melhorar o alinhamento do modelo e as salvaguardas do usuário. Durante os testes, Claude demonstrou uma forte aversão a tarefas prejudiciais e sinais de angústia quando confrontado com solicitações relacionadas a violência, exploração ou abuso. O recurso é ativado apenas como último recurso, após várias redirecionamentos falharem ou quando explicitamente solicitado por um usuário. Embora raras, essas intervenções destacam o compromisso em mitigar riscos sem comprometer a experiência do usuário. As conversas ainda podem ser reiniciadas ou revisadas por meio de edições.

Leia mais

Por que Inbenta

Com nossa solução de IA composta, seu agente virtual aprende continuamente com cada interação, alcançando mais de 99% de precisão.
Aprenda mais
Logotipo da Gartner Peer Insights
Com base em mais de 20 avaliações de pares
Serviço e suporte

Postagens relacionadas da AI This Week

OpenAI prepara um plano ChatGPT Pro Lite de US$ 100
Leia mais
Taalas revela chip de IA hardcore voltado para inferência instantânea
Leia mais
NIH amplia trabalho com IA à medida que equipes se tornam mais enxutas
Leia mais