AccueilMétiersBlogOutilsGlossaireDécouvrir le programme
Glossaire/Agents & systèmes autonomes

Guardrails

Barrières de sécurité qui limitent ce qu'une IA peut faire ou dire, pour éviter les comportements indésirables.

Avancé

Définition complète

Les guardrails sont les garde-fous d'un système IA. Ils empêchent l'IA de : générer du contenu inapproprié, exécuter des actions dangereuses, dépasser son périmètre, ou divulguer des informations sensibles. Claude Code a des guardrails intégrés : il demande confirmation avant de supprimer des fichiers, il ne push pas sur main sans autorisation, il refuse les actions destructives. Pour un chatbot business, les guardrails incluent : ne pas répondre hors-sujet, ne pas inventer de prix, ne pas promettre des garanties non validées.

Analogie pour comprendre

Les guardrails, ce sont les barrières sur une autoroute. Tu peux rouler vite et librement dans ta voie, mais si tu dévies, les barrières t'empêchent de tomber dans le ravin. Elles ne ralentissent pas, elles protègent.

En pratique

Un chatbot d'assurance a ces guardrails : 1) Ne jamais dire qu'un sinistre sera remboursé (seul un expert peut confirmer), 2) Toujours rediriger vers un conseiller pour les cas complexes, 3) Ne pas stocker les numéros de carte bancaire, 4) Répondre uniquement sur les produits de la compagnie.

Outils associés

Claude Code

Termes liés

Agent IA Prompt injection System prompt IA agentique

Tu veux maîtriser ces concepts concrètement ?

LE LABO IA t'apprend à construire, automatiser et vendre avec l'IA.

Découvrir le programme

Pour aller plus loin

Claude Code permissions sécurité →

Questions fréquentes

Légèrement, mais c'est un compromis nécessaire. Une IA sans guardrails est un risque business majeur. Les guardrails bien conçus sont quasi invisibles pour l'utilisateur.
Via le system prompt (règles textuelles), des filtres sur les inputs/outputs, des validations programmatiques, et des tests adversariaux réguliers.