Soutenances de thèse

paysage et complexité pour des classes de problèmes d'optimisation non convexe

26/09/2025 à 14h00

M. Iskander LEGHERABA présente ses travaux en soutenance le 26/09/2025 à 14h00

À l'adresse suivante : Université Paris Dauphine-PSL - Place de Lattre de Tassigny 75775 Paris Cedex 16 Salle des thèses - D520

En vue de l'obtention du diplôme : Doctorat en Informatique

La soutenance est publique

Titre des travaux

paysage et complexité pour des classes de problèmes d'optimisation non convexe

École doctorale

École doctorale Dauphine SDOSE

Équipe de recherche

UMR 7243 - Laboratoire d'Analyse et de Modélisation de Systèmes d'Aide à la Décision

Section CNU

9 - Sciences et technologies de l'information et de la communication

Directeur(s)

Yann CHEVALEYRE

Membres du jury

Nom Qualité Établissement Rôle
M. Yann CHEVALEYRE Professeur des universités Université Paris Dauphine-PSL Directeur de these
M. Clément W. ROYER Maître de conférences UNIVERSITE PARIS DAUPHINE - PSL Co-encadrant de these
M. Serge GRATTON Professeur des universités Toulouse INP-ENSEEIHT Rapporteur
Mme Elisa RICCIETTI Associate professor ENS Lyon Examinateur
Mme Irène WALDSPURGER Chargé de recherche CEREMADE Examinateur
M. Youssef DIOUANE Professor Polytechnique Montréal Rapporteur

Résumé

 

L'optimisation non convexe joue un rôle fondamental en mathématiques appliquées modernes, intervenant dans l'apprentissage automatique, le traitement du signal, la théorie du contrôle et l'algèbre linéaire numérique. Bien que les problèmes non convexes soient souvent complexes en raison de paysages comportant de multiples minima locaux et points-selles, des travaux récents ont montré que certains d'entre eux bénéficiant d'une structure spécifique—en particulier ceux possédant certaines caractéristiques algébriques ou géométriques—admettent des solutions efficaces.

 

Cette thèse aborde l'optimisation non convexe sous deux angles complémentaires. Premièrement, nous analysons des problèmes d'optimisation matricielle, motivés par leurs liens avec la théorie de l'apprentissage profond—notamment l'entraînement des réseaux linéaires—et avec l'algèbre linéaire numérique—notamment l'approximation de fonctions matricielles. Plus précisément, nous nous concentrons sur l'approximation de la racine carrée et, par une analyse du paysage d'optimisation, nous caractérisons des classes de points critiques, identifions certaines conditions garantissant que tous les minima locaux sont globaux, et étudions des phénomènes tels que l'apparition de points-selles d'ordre supérieur. Dans un second temps, nous abordons des problèmes non convexes plus généraux, en nous concentrant sur les problèmes de type moindres carrés non linéaires. Nous y analysons différents algorithmes, incluant des méthodes de type Newton, pour lesquels nous établissons des garanties de complexité en termes de nombre d'itérations et d'opérations pour obtenir des points critiques au premier et second ordre.

 

Toutes les soutenances de thèse