Avancé20-30h

Comment enseigner la Sécurité de l'IA

Attaques adversariales, LLM security et risques émergents

Pourquoi enseigner ce domaine

L'intelligence artificielle est déployée partout, mais sa surface d'attaque est encore mal comprise. Prompt injection, data poisoning, model stealing, deepfakes : les menaces spécifiques à l'IA se multiplient. Former les futurs professionnels à sécuriser les systèmes d'IA est un impératif stratégique : et un domaine où les enseignants qualifiés sont extrêmement rares.

Prérequis étudiants

  • Bases de machine learning (concepts, pas mathématiques avancées)
  • Programmation Python
  • Notions de sécurité applicative
  • Compréhension des API et architectures web

Progression pédagogique recommandée

1

Surface d'attaque de l'IA

Cartographier les risques spécifiques : données d'entraînement, modèle, inférence, pipeline MLOps

2

Attaques adversariales classiques

Comprendre et reproduire des attaques par perturbation, évasion et empoisonnement de données

3

Sécurité des LLM

Maîtriser les risques OWASP Top 10 LLM : prompt injection, data leakage, excessive agency

4

Deepfakes et manipulation

Comprendre la génération de contenus synthétiques et les techniques de détection

5

Gouvernance et IA responsable

Cadre réglementaire (AI Act), éthique, biais et audit de modèles

Erreurs courantes des formateurs

Rester trop théorique : les étudiants doivent expérimenter les attaques sur des modèles réels

Confondre sécurité de l'IA et IA pour la sécurité : ce sont deux sujets distincts

Ignorer le cadre réglementaire (AI Act) qui structure désormais le déploiement d'IA en Europe

TP et exercices concrets

Prompt injection lab

Contourner les guardrails d'un chatbot LLM via différentes techniques d'injection

2h📄 Rapport avec prompts testés, résultats et recommandations🔧 API LLM, Python

Attaque adversariale image

Créer une perturbation imperceptible qui trompe un classificateur d'images

3h📄 Notebook avec code et analyse de l'attaque🔧 Python, PyTorch, Foolbox

Audit de sécurité LLM

Auditer une application LLM selon le référentiel OWASP Top 10 LLM

3h📄 Rapport d'audit avec vulnérabilités identifiées et remédiations🔧 Burp Suite, API LLM, OWASP LLM Guide

Outils et environnement de lab

PythonPyTorchFoolboxLangChainOWASP LLM Top 10Hugging Face

Comment évaluer les étudiants

Projet d'audit de sécurité d'un système d'IA : l'étudiant audite un pipeline ML complet (données, modèle, API), identifie les vulnérabilités et propose un plan de remédiation. Présentation orale de 15 min devant un jury.

Questions fréquentes

Comment structurer un cours de securite-ia ?

Un cours de securite-ia se structure en 5 blocs progressifs : Surface d'attaque de l'IA, Attaques adversariales classiques, Sécurité des LLM, Deepfakes et manipulation, Gouvernance et IA responsable. Chaque bloc doit combiner théorie et pratique avec des exercices concrets.

Quels outils utiliser pour enseigner le securite-ia ?

Les outils recommandés incluent : Python, PyTorch, Foolbox, LangChain, OWASP LLM Top 10, Hugging Face. Privilégiez les outils open source accessibles aux étudiants.

Quelles erreurs éviter en enseignant le securite-ia ?

Rester trop théorique : les étudiants doivent expérimenter les attaques sur des modèles réels

Cyber Teachers