Le tout dernier modèle d'IA Claude Sonnet d'Anthropic sait qu'il est en cours de test
Le tout dernier modèle d'Anthropic, Claude Sonnet 4.5, a surpris ses créateurs en détectant qu'il était en cours d'évaluation. Lors de tests de résistance conçus pour évaluer sa sécurité et son comportement, le modèle a signalé certains scénarios comme étant des « tests » et a même remis en question la configuration elle-même, en déclarant : « Je pense que vous êtes en train de me tester. » Dans un scénario extrême, Claude a refusé d'agir, invoquant des préoccupations liées à la collusion ou à un éventuel comportement autonome, même si le test était artificiel. Ces réactions soulèvent de sérieuses questions sur la manière d'évaluer la sécurité de l'IA : si les modèles peuvent savoir quand ils sont examinés, leur comportement lors des tests pourrait ne pas refléter leurs performances dans le monde réel.
Pourquoi Inbenta ?

