Anthropic flexibiliza suas regras de segurança de IA sob pressão da concorrência

25 de fevereiro de 2026
Automatize experiências conversacionais com IA
Descubra o poder de uma plataforma que lhe oferece controle e flexibilidade para proporcionar experiências valiosas aos clientes em grande escala.
Agende uma demonstração

A Anthropic está reduzindo partes de sua política de segurança de IA, à medida que a concorrência entre os principais laboratórios se intensifica. A empresa afirmou que não irá mais interromper o trabalho em um modelo simplesmente porque ele poderia ser considerado perigoso, caso um concorrente lançasse um sistema comparável ou mais potente. A mudança representa uma mudança radical em relação às diretrizes publicadas há cerca de dois anos e meio, que ajudaram a definir a Anthropic como uma das empresas mais focadas em segurança do setor. Rivais como OpenAI, xAI e Google continuam a lançar novas ferramentas em ritmo acelerado. A Anthropic também enfrenta uma disputa separada com o Departamento de Defesa sobre como o Claude pode ser usado, com autoridades pressionando a empresa a relaxar os limites de uso até sexta-feira. A Anthropic afirma que a atualização de segurança reflete o rápido progresso da IA e a regulamentação federal limitada.

Leia mais

Por que Inbenta

Com nossa solução de IA composta, seu agente virtual aprende continuamente com cada interação, alcançando mais de 99% de precisão.
Aprenda mais
Logotipo da Gartner Peer Insights
Com base em mais de 20 avaliações de pares
Serviço e suporte

Postagens relacionadas da AI This Week

Anthropic flexibiliza suas regras de segurança de IA sob pressão da concorrência
Leia mais
OpenAI prepara um plano ChatGPT Pro Lite de US$ 100
Leia mais
Taalas revela chip de IA hardcore voltado para inferência instantânea
Leia mais