Soutenances de thèse

Stabilité des réseaux de neurones artificiels en apprentissage profond

20/06/2025 à 9h30

M. Blaise DELATTRE présente ses travaux en soutenance le 20/06/2025 à 9h30

À l'adresse suivante : PSL amphithéâtre Amyot, 3 rue Amyot, 75005 Paris Salle : Amphithéâtre

En vue de l'obtention du diplôme : Doctorat en Informatique

La soutenance est publique

Titre des travaux

Stabilité des réseaux de neurones artificiels en apprentissage profond

École doctorale

École doctorale Dauphine SDOSE

Équipe de recherche

UMR 7243 - Laboratoire d’Analyse et de Modélisation de Systèmes d’Aide à la Décision

Section CNU

27 - Informatique

Directeur(s)

M. Alexandre ALLAUZEN

Membres du jury

Nom Qualité Établissement Rôle
M. Alexandre ALLAUZEN Professeur des universités UNIVERSITE PARIS DAUPHINE - PSL Directeur de thèse
M. Rémi GRIBONVAL Directeur de recherche Inria & ENS de Lyon Rapporteur
Mme Audrey REPETTI Associate professor Heriot-Watt university, Edinburgh Rapporteure
M. Francis BACH Directeur de recherche INRIA - Ecole Normale Superieure PSL Research University Examinateur
M. Franck MAMALET Senior Expert in Artificial Intelligence IRT Antoine de Saint Exupéry Examinateur
Mme Claire BOYER Professeur des universités Université Paris-Saclay Examinateur
M. Quentin BARTHÉLEMY Chercheur en machine learning Foxstream Co-encadrant de thèse

Résumé

Ce travail examine comment de petites perturbations—qu'elles proviennent d'attaques adversariales, de bruit d'entrée, de fluctuations d'entraînement ou de variations des paramètres—peuvent entraîner des changements significatifs dans les sorties du réseau, impactant ainsi à la fois la généralisation et la robustesse adversariale. Au cœur de cette étude se trouve l'utilisation de la continuité de Lipschitz comme cadre mathématique pour quantifier et contrôler la sensibilité du réseau. En dérivant de nouvelles méthodes d'estimation de la norme spectrale, telles que la technique d'itération de Gram, on arrive à borner efficacement la constante de Lipschitz des couches denses et convolutionnelles. Cela permet de concevoir des architectures de réseaux Lipschitz par construction robustes, offrant des garanties déterministes contre les attaques adversariales tout en favorisant des flux de gradient plus stables durant l'entraînement. Ce travail s'intéresse également au lissage aléatoire, une technique stochastique qui introduit du bruit contrôlé dans les entrées afin de certifier la robustesse. De plus, il explore le lien entre le lissage aléatoire et la continuité de Lipschitz, mettant en évidence comment les techniques de lissage imposent naturellement des contraintes de Lipschitz, contribuant ainsi à la fois à la stabilité et aux garanties de certification. En outre, ce travail introduit un nouveau design d'intervalle de confiance et une atténuation de la variance afin de renforcer l'évaluation de la robustesse dans le cadre du lissage aléatoire. Par ailleurs, la thèse explore différentes stratégies de régularisation, notamment le lissage de la perte basé sur la Hessienne, qui permet d'obtenir des minima plus plats dans le paysage de la fonction de perte—une caractéristique étroitement liée à une meilleure généralisation.

Toutes les soutenances de thèse