Dauphine Numérique - Nos recherches -
Probabilités et statistique en grande dimension

Savoir tirer parti
des grandes masses de données

Le développement de mathématiques et d’algorithmique pour l’analyse et le traitement de grandes masses de données est un enjeu crucial, qui doit tenir compte de phénomènes typiques de la grande dimension, en faisant appel à des méthodes et concepts récents des probabilités et de la statistique.

Les travaux de recherche menés à Dauphine – PSL sur ces thèmes sont à la fois méthodologiques et numériques.

Problèmes inverses

Statistiques de grandes dimensions

Probabilité de grandes dimensions

Graphes et matrices aléatoires

Monte Carlo par chaînes de Markov

Algorithmes stochastiques

Calcul bayésien approximatif

Applications

 

 

Les champs applicatifs sont immenses et couvrent potentiellement tout le spectre des sciences des données : Réseaux sociaux, Astrophysique, Génétique, Neurosciences,...

Les questions de choix et de validation de modèles intéressent également les chercheurs de Dauphine - PSL. Sur cette thématique, la création des boîtes à outils pour praticiens et la mise en place des algorithmes sur architecture massivement parallèle s’avère utile.

 

Nos recherches
dans les laboratoires de l'université

Cette thématique des phénomènes de grande dimension est développée à Dauphine - PSL notamment au CEREMADE autour de la statistique de grande dimension, des problèmes inverses stochastiques, des modèles de graphes aléatoires et de matrices aléatoires, de la statistique bayésienne approchée (méthodes ABC), et des algorithmes stochastiques.

Ces recherches tirent parti de liaisons avec l’analyse mathématique et la physique statistique.

Nos chercheurs

Emmanuel Bacry, Djalil Chafaï, Laëtitia Comminges, Laure Dumaz, Marc Hoffmann, Joseph Lehec, Vincent Rivoirard, Christian Robert, Angelina Roche, Fabrice Rossi, Robin Ryder, Justin Salez, Julien Stoehr, Irène Waldspurger

Exemples de publications

  • Clarté, G., Robert, C. P., Ryder, R and Stoehr, J. (2019) Component-wise approximate Bayesian computation via Gibbs-like steps. arXiv:1905.13599
  • Collier, Olivier; Comminges, Laëtitia; Tsybakov, Alexandre B.; Verzelen, Nicolas. Optimal adaptive estimation of linear functionals under sparsity. Ann. Statist. 46 (2018), no. 6A, 3130–3150.
  • Bernton, Espen; Jacob, Pierre E.; Gerber, Mathieu; Robert, Christian P. Approximate Bayesian computation with the Wasserstein distanceJ. R. Stat. Soc. Ser. B. Stat. Methodol. 81 (2019), no. 2, 235–269.
  • Waldspurger, Irène Phase retrieval with random Gaussian sensing vectors by alternating projections. IEEE Trans. Inform. Theory 64 (2018), no. 5, 3301–3312.
  • Donnet, Sophie; Rivoirard, Vincent; Rousseau, Judith; Scricciolo, Catia. Posterior concentration rates for empirical Bayes procedures with applications to Dirichlet process mixtures. Bernoulli 24 (2018), no. 1, 231–256.
  • Roche, Angelina. Local optimization of black-box functions with high or infinite-dimensional inputs: application to nuclear safety. Comput. Statist. 33 (2018), no. 1, 467–485.
  • Chafaï, Djalil; Guédon, Olivier; Lecué, Guillaume; Pajor, Alain. Interactions between compressed sensing random matrices and high dimensional geometry.
    Panoramas et Synthèses 37. Société Mathématique de France, Paris, 2012. 181 pp. ISBN: 978-2-85629-370-6
  • A Endert, W Ribarsky, C Turkay, BL Wong, I Nabney, ID Blanco, F Rossi, The State of the Art in Integrating Machine Learning into Visual Analytics, Computer Graphics Forum (2017)
  • K Françoisse, I Kivimäki, A Mantrach, F Rossi, M Saerens, A bag-of-paths framework for network data analysis, Neural Networks (2017)