Claude Opus peut désormais raccrocher lors de conversations nuisibles

18 août 2025
Automatiser l'expérience client grâce à l'IA conversationnelle
Découvrez la puissance d'une plateforme qui vous offre le contrôle et la flexibilité nécessaires pour offrir des expériences client enrichissantes à grande échelle.
Planifier une démo

Anthropic a introduit une nouvelle fonctionnalité dans Claude Opus 4 et 4.1, permettant à l'IA de mettre fin à des conversations dans des cas rares et extrêmes d'interactions nuisibles ou abusives. Cette décision découle de travaux exploratoires sur le bien-être de l'IA et d'efforts plus larges visant à améliorer l'alignement des modèles et la protection des utilisateurs. Au cours des tests, Claude a montré une forte aversion pour les tâches nuisibles et des signes de détresse lorsqu'il était confronté à des demandes liées à la violence, à l'exploitation ou aux abus. Cette fonctionnalité ne s'active qu'en dernier recours, après l'échec de plusieurs redirections ou lorsqu'un utilisateur en fait la demande explicite. Bien que rares, ces interventions soulignent notre engagement à atténuer les risques sans compromettre l'expérience utilisateur. Les conversations peuvent toujours être reprises ou revisitées grâce à des modifications.

Pourquoi Inbenta ?

Grâce à notre solution d'IA composite, votre agent virtuel apprend en permanence de chaque interaction, atteignant une précision supérieure à 99 %.
En savoir plus
Logo Gartners Peer Insights
Basé sur plus de 20 évaluations par des pairs
Service et assistance

Articles connexes publiés cette semaine sur l'IA

Un entrepreneur du secteur technologique utilise ChatGPT pour mettre au point un vaccin contre le cancer destiné à un chien en phase terminale
En savoir plus
Le PDG d'Adobe, Shantanu Narayen, prévoit de passer le relais après 18 ans à la tête de l'entreprise, dans un contexte marqué par les enjeux liés à l'IA
En savoir plus
Netflix investit jusqu'à 600 millions de dollars dans InterPositive, la start-up d'IA de Ben Affleck
En savoir plus