[Soutenance de thèse] 16/12/2025 – Grace Tessa Masse : « Cyber déception et résilience avec apprentissage automatique distribué » (UPR LIA)

News Research news 8 December 2025

Madame Grace TESSA MASSE soutiendra publiquement ses travaux de thèse intitulés : « Cyber déception et résilience avec apprentissage automatique distribué » dirigés par Monsieur Abderrahim BENSLIMANE et Monsieur Vianney KENGNE TCHENDJI, en cotutelle avec l’université « Université de Dschang » (Cameroun), le mardi 16 décembre 2025.

Date and place

Oral defense scheduled on Tuesday, 16 December 2025 at 2pm
Lieu :   74 Rue Louis Pasteur, 84029 Avignon, Avignon Université – Campus Hannah Arendt
Salle : amphi 2E07

Discipline

Computer Science

Laboratory

UPR 4128 LIA - Avignon Computing Laboratory

Composition of the jury

Mr Abderrahim BENSLIMANE Avignon University Thesis supervisor
M. Rémi  BADONNEL TELECOM Nancy – University of Lorraine Rapporteur
M. Lyes  KHOUKHI  CNAM Paris University Rapporteur
M. Yezekael  HAYEL University of Avignon Examiner
Mr Vianney KENGNE TCHENDJI University of Dschang Thesis co-director
Mr Ahmed HEMIDA ANWAR USARMY DEVCOM ARL Examiner
Mme Tooska DARGAHI Manchester Metropolitan University Examiner

Summary

L’intelligence artificielle (IA), en particulier le machine learning (ML) et le deep learning (DL), s’est développée très rapidement. Cela a provoqué une véritable révolution technologique dans plusieurs domaines. Mais, cette évolution rend également beaucoup plus difficiles la sécurité des systèmes et la protection des données personnelles. L’entrainement de modèles d’apprentissage automatique hautement performants nécessite généralement l’agrégation et l’analyse d’une quantité substantielle de données utilisateur dans un emplacement centralisé. Ce processus, qui nécessite d’importantes ressources de traitement et une bande passante élevée, est en outre limité par des restrictions législatives strictes en matière de confidentialité des données utilisateur. Pour relever ces défis, l’apprentissage fédéré (FL) est apparu comme une alternative prometteuse. Il permet à différents groupes, tels que des appareils ou des entreprises, de travailler ensemble pour former un modèle sans avoir à envoyer leurs données brutes hors de leurs propres appareils. Cette méthode protège la confidentialité, réduit le risque de fuites de données et facilite le respect de la réglementation. Néanmoins, elle utilise une architecture décentralisée qui diminue la confiance entre toutes les parties participant au système FL. Cette situation facilite les attaques sophistiquées conçues pour perturber le processus d’apprentissage et affaiblir la fiabilité du modèle. Ces attaques peuvent avoir un impact considérable sur les performances du modèle, notamment une baisse significative de la précision ou des altérations intentionnelles et malveillantes des prédictions. Cette thèse vise à relever le défi majeur en matière de sécurité que représente l’atténuation de ce type d’attaques. Plusieurs solutions de défense réactives, passives et axées sur l’atténuation ont été proposées. Néanmoins, ces approches ne tiennent souvent pas compte du déséquilibre informationnel entre les attaquants et les défenseurs du système. Cette idée ouvre la voie à de nouvelles pistes de recherche pour répondre aux préoccupations liées aux attaques FL. Cette thèse présente une stratégie de défense offensive novatrice et proactive basée sur le concept de cyber-tromperie. L’objectif est d’aller au-delà du paradigme défensif conventionnel en mettant en œuvre des systèmes susceptibles de tromper les attaquants, de les contrecarrer activement, de réduire leur persistance et de les pousser à commettre des erreurs ou à gaspiller leurs ressources, rendant ainsi leurs attaques inefficaces à long terme. La technique proposée comprend deux étapes fondamentales. Nous avons d’abord développé un modèle robuste visant à détecter les clients malveillants dans le cadre FL. Cette stratégie de détection repose sur l’analyse des mises à jour de modèles fournies par les clients et intègre des approches avancées pour évaluer la fiabilité des clients. Ensuite, nous avons proposé deux extit{systèmes de tromperie} qui exploitent les mauvaises mises à jour observées pour attirer les attaquants dans des environnements simulés. Nous concevons un modèle leurre global basé sur les réseaux antagonistes génératifs (GAN) et les approches de regroupement. Ce modèle leurre reproduit fidèlement le comportement du modèle réel, trompant l’attaquant sur l’efficacité de son attaque ; cependant, en réalité, il n’a pratiquement aucun impact sur le système principal. Pour évaluer la qualité et l’efficacité de ces leurres, nous avons défini trois critères analytiques : indistinguabilité, crédibilité, viabilité. Des expériences menées dans différents scénarios démontrent que notre système identifie efficacement les attaques par empoisonnement et réduit considérablement leur impact, notamment en repoussant activement les adversaires. Cette thèse met en évidence l’efficacité de la cyber-tromperie pour renforcer la sécurité du FL et, plus largement, celle des systèmes d’IA distribués en matière de cybersécurité.

Keywords : apprentissage autmatique distribué, Cyber tromperie, Cyber résilience

Associated key words
thesis defence