Claude Opus peut désormais raccrocher lors de conversations nuisibles

18 août 2025
Automatiser l'expérience client grâce à l'IA conversationnelle
Découvrez la puissance d'une plateforme qui vous offre le contrôle et la flexibilité nécessaires pour offrir des expériences client enrichissantes à grande échelle.
Planifier une démo

Anthropic a introduit une nouvelle fonctionnalité dans Claude Opus 4 et 4.1, permettant à l'IA de mettre fin à des conversations dans des cas rares et extrêmes d'interactions nuisibles ou abusives. Cette décision découle de travaux exploratoires sur le bien-être de l'IA et d'efforts plus larges visant à améliorer l'alignement des modèles et la protection des utilisateurs. Au cours des tests, Claude a montré une forte aversion pour les tâches nuisibles et des signes de détresse lorsqu'il était confronté à des demandes liées à la violence, à l'exploitation ou aux abus. Cette fonctionnalité ne s'active qu'en dernier recours, après l'échec de plusieurs redirections ou lorsqu'un utilisateur en fait la demande explicite. Bien que rares, ces interventions soulignent notre engagement à atténuer les risques sans compromettre l'expérience utilisateur. Les conversations peuvent toujours être reprises ou revisitées grâce à des modifications.

Pourquoi Inbenta ?

Grâce à notre solution d'IA composite, votre agent virtuel apprend en permanence de chaque interaction, atteignant une précision supérieure à 99 %.
En savoir plus
Logo Gartners Peer Insights
Basé sur plus de 20 évaluations par des pairs
Service et assistance

Articles connexes publiés cette semaine sur l'IA

Mistral AI lève 830 millions de dollars pour construire des centres de données équipés de technologies Nvidia à travers l'Europe
En savoir plus
Anthropic divulgue accidentellement le code source de Claude, commettant ainsi une grave erreur de sécurité
En savoir plus
OpenAI clôture un tour de table record de 122 milliards de dollars, avec une valorisation de 852 milliards de dollars
En savoir plus