Aller au contenu principal
Accueil Métiers Vidéos Blog Outils Glossaire Voir le programme

Guardrails

Barrières de sécurité qui limitent ce qu'une IA peut faire ou dire, pour éviter les comportements indésirables.

Avancé

Définition complète

Les guardrails sont les garde-fous d'un système IA. Ils empêchent l'IA de : générer du contenu inapproprié, exécuter des actions dangereuses, dépasser son périmètre, ou divulguer des informations sensibles. Claude Code a des guardrails intégrés : il demande confirmation avant de supprimer des fichiers, il ne push pas sur main sans autorisation, il refuse les actions destructives. Pour un chatbot business, les guardrails incluent : ne pas répondre hors-sujet, ne pas inventer de prix, ne pas promettre des garanties non validées.

Analogie pour comprendre

Les guardrails, ce sont les barrières sur une autoroute. Tu peux rouler vite et librement dans ta voie, mais si tu dévies, les barrières t'empêchent de tomber dans le ravin. Elles ne ralentissent pas, elles protègent.

En pratique

Un chatbot d'assurance a ces guardrails : 1) Ne jamais dire qu'un sinistre sera remboursé (seul un expert peut confirmer), 2) Toujours rediriger vers un conseiller pour les cas complexes, 3) Ne pas stocker les numéros de carte bancaire, 4) Répondre uniquement sur les produits de la compagnie.

Outils associés

Claude Code

Termes liés

Agent IAPrompt injectionSystem promptIA agentique

Pour aller plus loin

Questions fréquentes

Légèrement, mais c'est un compromis nécessaire. Une IA sans guardrails est un risque business majeur. Les guardrails bien conçus sont quasi invisibles pour l'utilisateur.

Via le system prompt (règles textuelles), des filtres sur les inputs/outputs, des validations programmatiques, et des tests adversariaux réguliers.