Dauphine Numérique - Nos recherches -
Grande dimension : probabilités, statistique, algorithmes

Présentation

Le développement de méthodes mathématiques et algorithmiques pour la modélisation et le traitement de grandes masses de données est un enjeu actuel, qui doit tenir compte de phénomènes typiques de la grande dimension.

Cette thématique des phénomènes de grande dimension est très développée à Dauphine, notamment au Ceremade autour de la statistique de grande dimension, de la statistique bayésienne approchée, des algorithmes stochastiques, des problèmes inverses stochastiques, ainsi que des modèles de grands graphes ou matrices aléatoires.

Les champs applicatifs sont immenses. Les travaux des chercheurs du Ceremade sont à la fois méthodologiques et numériques. Les méthodes Approximate Bayesian Computation (ABC) méritent une mention spéciale. Apparues au début des années 2000, elles ont connu depuis une forte expansion. Elles permettent d’effectuer de l’inférence statistique dans des modèles complexes pour lesquels le calcul de la vraisemblance est impossible.

Elles remplacent le calcul exact par la simulation, souvent plus aisée, de données synthétiques. Les domaines d’application sont nombreux : astrophysique, génétique des populations neurosciences… Les questions de choix de modèle et de validation pragmatique de cette technique d’inférence intéressent également les universitaires du Ceremade.

Sur ces thématiques, la création des boîtes à outils à destination des praticiens, et de mise en place de ces algorithmes sur architecture massivement parallèle s’avère utile.

Chercheurs

Djalil Chafaï, Laëtitia Comminges, Laure Dumaz, Marc Hoffmann, Joseph Lehec, Vincent Rivoirard, Christian Robert, Angelina Roche, Fabrice Rossi, Robin Ryder, Justin Salez, Julien Stoehr, Irène Waldspurger

Mots-clés

Inverse problems; Approximate Bayesian Computation (ABS) ; High dimensional statistics ; High dimensional probability ; Markov Chain Monte Carlo (MCMC) ; Stochastic algorithms ; Random graphs and random matrices

Publications

  • Clarté, G., Robert, C. P., Ryder, R and Stoehr, J. (2019) Component-wise approximate Bayesian computation via Gibbs-like steps. arXiv:1905.13599
  • Collier, Olivier; Comminges, Laëtitia; Tsybakov, Alexandre B.; Verzelen, Nicolas. Optimal adaptive estimation of linear functionals under sparsity. Ann. Statist. 46 (2018), no. 6A, 3130–3150.
  • Bernton, Espen; Jacob, Pierre E.; Gerber, Mathieu; Robert, Christian P. Approximate Bayesian computation with the Wasserstein distance. J. R. Stat. Soc. Ser. B. Stat. Methodol. 81 (2019), no. 2, 235–269.
  • Waldspurger, Irène Phase retrieval with random Gaussian sensing vectors by alternating projections. IEEE Trans. Inform. Theory 64 (2018), no. 5, 3301–3312.
  • Donnet, Sophie; Rivoirard, Vincent; Rousseau, Judith; Scricciolo, Catia. Posterior concentration rates for empirical Bayes procedures with applications to Dirichlet process mixtures. Bernoulli 24 (2018), no. 1, 231–256.
  • Roche, Angelina. Local optimization of black-box functions with high or infinite-dimensional inputs: application to nuclear safety. Comput. Statist. 33 (2018), no. 1, 467–485.
  • Chafaï, Djalil; Guédon, Olivier; Lecué, Guillaume; Pajor, Alain. Interactions between compressed sensing random matrices and high dimensional geometry.
    Panoramas et Synthèses 37. Société Mathématique de France, Paris, 2012. 181 pp. ISBN: 978-2-85629-370-6
  • A Endert, W Ribarsky, C Turkay, BL Wong, I Nabney, ID Blanco, F Rossi, The State of the Art in Integrating Machine Learning into Visual Analytics, Computer Graphics Forum (2017)
  • K Françoisse, I Kivimäki, A Mantrach, F Rossi, M Saerens, A bag-of-paths framework for network data analysis, Neural Networks (2017)