Lancé et piloté conjointement par le Campus Cyber et le Hub France IA, ce groupe de travail se compose de 2 sous-groupes :
Sécurisation de l’IA
1. « Développer une IA sécurisée / Security by Design pour les systèmes d’IA », copiloté par HeadMind Partners et BNPP.
Il a comme objectif de s’approprier la première version du guide de l’ANSSI publié en avril 2024 sur la sécurité des systèmes à base d’IA générative, d’identifier les sources d’incompréhensions pour des experts non avertis IA, les difficultés à anticiper pour la mise en œuvre et les éventuelles exigences à compléter.
2. « Analyse des attaques / défenses sur les systèmes d’IA », copiloté par Françoise Soulié (Hub France IA) et Patrick Perrot (Gendarmerie Nationale).
Sur la base des documentations existantes (notamment Adversarial Machine Learning du NIST ou encore OWASP Machine Learning Security Risks), le groupe produira des descriptifs des attaques spécifiques à l’IA et des défenses existantes.
Pilotes : Le Campus Cyber et le Hub France IA

Pilote : Général Patrick Perrot

Pilote : Françoise Soulié-Fogelman

Contact : Thomas Kernem-Om
Si vous souhaitez participer à notre GT ou nous contacter :
thomas.kernem-om@hub-franceia.fr