IA générative et cybersécurité : un module obligatoire ?
Un tournant que la formation ne peut plus ignorer
L'IA générative a cessé d'être un sujet prospectif. Les grands modèles de langage (LLM) sont désormais utilisés quotidiennement par les professionnels de la cybersécurité : pour analyser du code, rédiger des règles de détection, automatiser des tâches de triage, ou explorer des vecteurs d'attaque.
Dans le même temps, ces outils créent de nouvelles surfaces d'attaque et de nouveaux risques : génération de code malveillant assistée, campagnes de phishing hyper-personnalisées, deepfakes convaincants, ou encore attaques par injection de prompt sur des applications intégrant des LLM.
Face à cette double réalité : outil puissant et menace émergente : la question se pose avec acuité : faut-il faire de l'IA générative un module obligatoire dans les formations en cybersécurité ?
L'IA générative comme outil offensif : ce que les étudiants doivent comprendre
L'automatisation des attaques
Les LLM permettent à des attaquants de produire à grande échelle des contenus crédibles et personnalisés. Les campagnes d'ingénierie sociale deviennent plus difficiles à détecter lorsque les messages sont rédigés sans fautes, contextualisés et adaptés à chaque cible.
Les étudiants doivent comprendre comment ces outils fonctionnent pour mieux anticiper les menaces qu'ils engendrent. Cela ne signifie pas former à l'attaque, mais à la compréhension des capacités de ces systèmes et des limites des défenses traditionnelles face à eux.
La génération de code malveillant
Malgré les garde-fous mis en place par les fournisseurs de LLM, il est documenté que ces modèles peuvent être détournés pour produire du code exploitable. Les futurs professionnels de la cybersécurité doivent savoir reconnaître ces patterns et comprendre les techniques de contournement (jailbreaking, prompt injection) pour mieux les contrer.
Les deepfakes et la manipulation d'identité
L'IA générative ne se limite pas au texte. La génération d'images, de voix et de vidéos soulève des enjeux majeurs en matière d'usurpation d'identité et de fraude. Un module de formation devrait aborder ces vecteurs et les moyens de détection disponibles.
L'IA générative comme outil défensif : un levier à maîtriser
Analyse et triage assistés
Dans les centres opérationnels de sécurité, les LLM commencent à être intégrés pour accélérer l'analyse d'alertes, résumer des logs, ou suggérer des pistes d'investigation. Les futurs analystes SOC qui sauront utiliser ces outils avec discernement seront plus efficaces et plus recherchés.
Revue de code et détection de vulnérabilités
L'IA générative peut assister la revue de code en identifiant des patterns vulnérables connus, comme les failles XSS ou les injections SQL. Les formations en développement sécurisé gagneraient à intégrer ces outils, tout en enseignant leurs limites : un LLM peut manquer des vulnérabilités subtiles ou produire des faux positifs.
Rédaction de documentation et de politiques
La production de documentation de sécurité : politiques, procédures, rapports d'incident : peut être accélérée par l'IA générative. Encore faut-il savoir structurer un prompt pertinent et relire de manière critique le résultat produit.
Que devrait contenir un tel module ?
Si l'on accepte que l'IA générative mérite sa place dans un cursus cyber, reste à définir son contenu. Voici les axes qui semblent essentiels.
Fonctionnement des LLM
Comprendre les bases : architecture transformer, tokenisation, fenêtre de contexte, fine-tuning, RAG (Retrieval-Augmented Generation). Pas besoin d'en faire des chercheurs en IA, mais les étudiants doivent saisir comment ces modèles fonctionnent pour évaluer ce qu'ils peuvent et ne peuvent pas faire.
Risques spécifiques aux applications intégrant de l'IA
Les applications qui intègrent des LLM introduisent de nouvelles catégories de vulnérabilités : injection de prompt, exfiltration de données via le contexte, hallucinations exploitables. Ces risques doivent être enseignés au même titre que les vulnérabilités web classiques référencées dans l'OWASP Top 10.
Utilisation responsable et éthique
Un module sur l'IA générative en cybersécurité ne peut faire l'impasse sur les questions éthiques : biais des modèles, confidentialité des données envoyées aux API, cadre juridique de l'utilisation de l'IA (AI Act européen), et limites de la confiance à accorder aux sorties d'un LLM.
Travaux pratiques concrets
La théorie ne suffit pas. Les étudiants devraient pouvoir :
- Tester des attaques par prompt injection sur des applications sandboxées.
- Utiliser un LLM pour accélérer l'analyse d'un jeu de logs.
- Évaluer la qualité d'un rapport de sécurité généré par IA.
- Comparer les résultats d'une revue de code manuelle et assistée par IA.
Les freins à l'intégration
Le rythme d'évolution
Le domaine évolue si vite que les supports de cours risquent d'être obsolètes en quelques mois. Les formateurs en cybersécurité doivent adopter une posture de veille permanente et privilégier des approches pédagogiques flexibles plutôt que des contenus figés.
Le manque de recul
L'IA générative appliquée à la cybersécurité est un domaine jeune. Les bonnes pratiques ne sont pas encore stabilisées, et les retours d'expérience restent limités. Cela ne doit pas empêcher d'en parler, mais impose une posture d'humilité et de pensée critique.
Les ressources nécessaires
Mettre en place des labs impliquant des LLM nécessite des environnements adaptés et potentiellement des coûts d'API. Les établissements doivent anticiper ces besoins pour proposer des TP pertinents.
Un module nécessaire, pas un effet de mode
L'IA générative n'est pas une tendance passagère. Elle transforme durablement le paysage de la cybersécurité, tant du côté offensif que défensif. Ne pas former les étudiants à ces enjeux reviendrait à les envoyer sur le terrain avec une carte incomplète.
Un module dédié : ou a minima une intégration transversale dans les cours existants : semble aujourd'hui indispensable pour former des professionnels capables d'évoluer dans un environnement où l'IA est omniprésente.
Vous souhaitez intégrer l'IA générative dans vos formations cyber ?
Trouvez des enseignants à la pointe sur Cyber Teachers et préparez vos étudiants aux défis de demain.