Contributions en apprentissage profond pour la modélisation des séries temporelles : application au problème d'exécution VWAP
07/07/2025 à 10h00
M. Rémi GENET présente ses travaux en soutenance le 07/07/2025 à 10h00
À l'adresse suivante : Université Paris Dauphine - PSL- Place du Maréchal de Lattre de Tassigny 75016 Paris Salle des thèses - D520
En vue de l'obtention du diplôme : Doctorat en Finance
La soutenance est publique
Titre des travaux
Contributions en apprentissage profond pour la modélisation des séries temporelles : application au problème d'exécution VWAP
École doctorale
École doctorale Dauphine SDOSE
Équipe de recherche
UMR 7088 - Dauphine Recherches en Management
Section CNU
07 - Sciences de la société
Directeur(s)
Fabrice RIVA
Membres du jury
Nom | Qualité | Établissement | Rôle |
---|---|---|---|
M. Fabrice RIVA | Professeur des universités | UNIVERSITE PARIS DAUPHINE - PSL | Directeur de these |
Mme Iryna VERYZHENKO | Maître de conférences | CNAM | Rapporteur |
M. Charles-Albert LEHALLE | Full professor | École polytechnique | Rapporteur |
M. Serges DAROLLES | Professor | Université Paris Dauphine | Examinateur |
M. Tristan CAZENAVE | Professeur des universités | Université Paris Dauphine | Examinateur |
M. FRANTZ MAURER | Professor | KEDGE BUSINESS SCHOOL | Examinateur |
Résumé
Cette thèse, motivée par l'optimisation des stratégies VWAP sur les marchés de crypto-monnaies, propose une refonte substantielle de ces stratégies grâce à l'apprentissage profond. En dépassant l'approche traditionnelle qui réduit le VWAP à un simple problème de prévision des volumes, cette recherche démontre que la flexibilité des réseaux de neurones permet de reformuler le défi d'exécution en un système différentiable unifié où prédiction et optimisation fonctionnent en synergie.
Les contributions s'articulent autour de trois axes principaux. Premièrement, de nouvelles architectures neuronales sont développées – notamment le Temporal Kolmogorov-Arnold Network (TKAN), le Temporal Kolmogorov-Arnold Transformer (TKAT) et le Temporal Linear Network (TLN) – pour améliorer la modélisation des séries temporelles. Deuxièmement, des méthodes d'intégration des signatures de chemins dans les réseaux de neurones sont proposées, aboutissant à deux architectures hybrides : SigGate et SigKAN. Enfin, une méthodologie progressive est élaborée pour appliquer ces innovations au problème VWAP : d'abord par l'établissement d'un modèle statique d'allocation des volumes, puis par son extension vers un cadre dynamique intégrant des ajustements en temps réel, et finalement par sa généralisation en un modèle multi-actifs capable de s'adapter à divers contextes de marché.
Cette approche intégrée illustre comment l'apprentissage profond peut transformer la résolution de problèmes complexes en en simplifiant grandement la modélisation. Elle permet également de démontrer comment des blocs développés pour un cas spécifique peuvent par la suite s'intégrer naturellement dans d'autres problèmes connexes. Cette thèse met ainsi en évidence l'intérêt d'enrichir les approches possibles et ainsi les outils à disposition, chacun pouvant présenter des avantages dans des contextes spécifiques.