Anthropic flexibiliza suas regras de segurança de IA sob pressão da concorrência
A Anthropic está reduzindo partes de sua política de segurança de IA, à medida que a concorrência entre os principais laboratórios se intensifica. A empresa afirmou que não irá mais interromper o trabalho em um modelo simplesmente porque ele poderia ser considerado perigoso, caso um concorrente lançasse um sistema comparável ou mais potente. A mudança representa uma mudança radical em relação às diretrizes publicadas há cerca de dois anos e meio, que ajudaram a definir a Anthropic como uma das empresas mais focadas em segurança do setor. Rivais como OpenAI, xAI e Google continuam a lançar novas ferramentas em ritmo acelerado. A Anthropic também enfrenta uma disputa separada com o Departamento de Defesa sobre como o Claude pode ser usado, com autoridades pressionando a empresa a relaxar os limites de uso até sexta-feira. A Anthropic afirma que a atualização de segurança reflete o rápido progresso da IA e a regulamentação federal limitada.
Por que Inbenta

