Anthropic flexibiliza suas regras de segurança de IA sob pressão da concorrência

25 de fevereiro de 2026
Automatize experiências conversacionais com IA
Descubra o poder de uma plataforma que lhe oferece controle e flexibilidade para proporcionar experiências valiosas aos clientes em grande escala.
Agende uma demonstração

A Anthropic está reduzindo partes de sua política de segurança de IA, à medida que a concorrência entre os principais laboratórios se intensifica. A empresa afirmou que não irá mais interromper o trabalho em um modelo simplesmente porque ele poderia ser considerado perigoso, caso um concorrente lançasse um sistema comparável ou mais potente. A mudança representa uma mudança radical em relação às diretrizes publicadas há cerca de dois anos e meio, que ajudaram a definir a Anthropic como uma das empresas mais focadas em segurança do setor. Rivais como OpenAI, xAI e Google continuam a lançar novas ferramentas em ritmo acelerado. A Anthropic também enfrenta uma disputa separada com o Departamento de Defesa sobre como o Claude pode ser usado, com autoridades pressionando a empresa a relaxar os limites de uso até sexta-feira. A Anthropic afirma que a atualização de segurança reflete o rápido progresso da IA e a regulamentação federal limitada.

Por que Inbenta

Com nossa solução de IA composta, seu agente virtual aprende continuamente com cada interação, alcançando mais de 99% de precisão.
Aprenda mais
Logotipo da Gartner Peer Insights
Com base em mais de 20 avaliações de pares
Serviço e suporte

Postagens relacionadas da AI This Week

A SpaceX fecha acordo de US$ 60 bilhões para adquirir a Cursor, gigante da programação de IA
Leia mais
A Apple nomeia John Ternus como seu próximo CEO, encerrando o mandato de 15 anos de Tim Cook no comando da empresa
Leia mais
O projeto Claude, da Anthropic, faz com que as ações da Figma caiam 7% e abala a Adobe
Leia mais