Objectif : Rendre les agents IA sûrs pour la production.
Théorie (10 min) :
- Lire : Guardrails node — disponible en n8n 2.x
- Cas : Filtrer les inputs malveillants, bloquer les outputs dangereux, validation des actions
Pratique (50 min) :
- Ajouter un Guardrails node avant l'AI Agent pour filtrer les messages
- Configurer des règles : "Ne jamais partager des données personnelles", "Toujours répondre en français"
- Human Review Step : Ajouter une validation humaine avant qu'un agent envoie un email
- Gérer les cas d'escalade : si confiance < 0.7 → alerter un humain
- Tester des injections de prompt et vérifier que les guardrails les bloquent
Checkpoint : Tes agents ont des garde-fous avant de partir en production.