Anthropic assouplit ses règles de sécurité en matière d'IA sous la pression de ses concurrents
Anthropic réduit certaines parties de sa politique phare en matière de sécurité de l'IA alors que la concurrence entre les principaux laboratoires s'intensifie. La société a déclaré qu'elle ne suspendrait plus le travail sur un modèle simplement parce qu'il pourrait être considéré comme dangereux si un concurrent lançait un système comparable ou plus puissant. Ce changement marque une rupture nette par rapport aux garde-fous publiés il y a environ deux ans et demi, qui avaient contribué à définir Anthropic comme l'un des acteurs les plus soucieux de la sécurité dans ce secteur. Ses concurrents, notamment OpenAI, xAI et Google, continuent de commercialiser de nouveaux outils à un rythme soutenu. Anthropic est également confrontée à un autre conflit avec le ministère de la Défense concernant l'utilisation de Claude, les responsables faisant pression sur l'entreprise pour qu'elle assouplisse les restrictions d'utilisation d'ici vendredi. Anthropic affirme que cette mise à jour en matière de sécurité reflète les progrès rapides de l'IA et la réglementation fédérale limitée.
Pourquoi Inbenta ?

