Comment enseigner la Sécurité de l'IA
Attaques adversariales, LLM security et risques émergents
Pourquoi enseigner ce domaine
L'intelligence artificielle est déployée partout, mais sa surface d'attaque est encore mal comprise. Prompt injection, data poisoning, model stealing, deepfakes : les menaces spécifiques à l'IA se multiplient. Former les futurs professionnels à sécuriser les systèmes d'IA est un impératif stratégique : et un domaine où les enseignants qualifiés sont extrêmement rares.
Prérequis étudiants
- ✓Bases de machine learning (concepts, pas mathématiques avancées)
- ✓Programmation Python
- ✓Notions de sécurité applicative
- ✓Compréhension des API et architectures web
Progression pédagogique recommandée
Surface d'attaque de l'IA
Cartographier les risques spécifiques : données d'entraînement, modèle, inférence, pipeline MLOps
Attaques adversariales classiques
Comprendre et reproduire des attaques par perturbation, évasion et empoisonnement de données
Sécurité des LLM
Maîtriser les risques OWASP Top 10 LLM : prompt injection, data leakage, excessive agency
Deepfakes et manipulation
Comprendre la génération de contenus synthétiques et les techniques de détection
Gouvernance et IA responsable
Cadre réglementaire (AI Act), éthique, biais et audit de modèles
Erreurs courantes des formateurs
Rester trop théorique : les étudiants doivent expérimenter les attaques sur des modèles réels
Confondre sécurité de l'IA et IA pour la sécurité : ce sont deux sujets distincts
Ignorer le cadre réglementaire (AI Act) qui structure désormais le déploiement d'IA en Europe
TP et exercices concrets
Prompt injection lab
Contourner les guardrails d'un chatbot LLM via différentes techniques d'injection
Attaque adversariale image
Créer une perturbation imperceptible qui trompe un classificateur d'images
Audit de sécurité LLM
Auditer une application LLM selon le référentiel OWASP Top 10 LLM
Outils et environnement de lab
Comment évaluer les étudiants
Projet d'audit de sécurité d'un système d'IA : l'étudiant audite un pipeline ML complet (données, modèle, API), identifie les vulnérabilités et propose un plan de remédiation. Présentation orale de 15 min devant un jury.
Questions fréquentes
Comment structurer un cours de securite-ia ?
Un cours de securite-ia se structure en 5 blocs progressifs : Surface d'attaque de l'IA, Attaques adversariales classiques, Sécurité des LLM, Deepfakes et manipulation, Gouvernance et IA responsable. Chaque bloc doit combiner théorie et pratique avec des exercices concrets.
Quels outils utiliser pour enseigner le securite-ia ?
Les outils recommandés incluent : Python, PyTorch, Foolbox, LangChain, OWASP LLM Top 10, Hugging Face. Privilégiez les outils open source accessibles aux étudiants.
Quelles erreurs éviter en enseignant le securite-ia ?
Rester trop théorique : les étudiants doivent expérimenter les attaques sur des modèles réels