Actu IA. (21-08-2025)
- web digital
- 21 août
- 2 min de lecture
L’IA Claude peut mettre fin aux « conversations nuisibles ou abusives », promet Anthropic:

Actes de violence ou de terrorisme à grande échelle, productions de contenus pédo-pornographiques… Face à des utilisateurs malveillants, certains modèles de Claude, un rival de ChatGPT, pourront désormais mettre fin à des conversations « nuisibles ou abusives », a annoncé Anthropic, le 15 août dernier. Selon la start-up d’intelligence artificielle (IA) américaine, certains de ses modèles les plus récents pourront mettre fin à des conversations lors « des cas rares et extrêmes d’interactions utilisateurs persistantes, nuisibles ou abusives ».
L’objectif est non pas de protéger l’utilisateur ou la société, mais… le modèle d’IA en lui-même. En la matière, l’entreprise, fondée par deux anciens d’OpenAI, la société à l’origine de ChatGPT, n’hésite pas en effet à évoquer un certain « bien-être » de ses modèles. Elle s’est donc efforcée « d’identifier et de mettre en œuvre des interventions à faible coût pour atténuer les risques pour le bien-être des modèles, dans le cas où un tel bien-être serait possible », précise-t-elle sans donner davantage de détails.
L’interruption de la conversation ne sera utilisée « qu’en dernier recours, lorsque plusieurs tentatives de redirection ont échoué et que tout espoir d’une interaction productive a été épuisé, ou lorsqu’un utilisateur demande explicitement à Claude de mettre fin à une conversation », précise encore Anthropic. Les modèles d’IA de Claude ont toutefois été programmés pour « ne pas utiliser cette capacité (d’arrêt, NDLR) lorsque les utilisateurs pourraient présenter un risque imminent de se faire du mal ou de faire du mal à autrui ».
Vous souhaitez devenir un expert en marketing digital?
ADMA est là pour vous!
Une formation 100% en ligne à suivre où et quand vous le voulez.

















Moyen de communication