Savoir tirer parti
des grandes masses de données
Le développement de mathématiques et d’algorithmique pour l’analyse et le traitement de grandes masses de données est un enjeu crucial, qui doit tenir compte de phénomènes typiques de la grande dimension, en faisant appel à des méthodes et concepts récents des probabilités et de la statistique.
Les travaux de recherche menés à Dauphine – PSL sur ces thèmes sont à la fois méthodologiques et numériques.
Problèmes inverses
Statistiques de grandes dimensions
Probabilité de grandes dimensions
Graphes et matrices aléatoires
Monte Carlo par chaînes de Markov
Algorithmes stochastiques
Calcul bayésien approximatif
Applications
Les champs applicatifs sont immenses et couvrent potentiellement tout le spectre des sciences des données : Réseaux sociaux, Astrophysique, Génétique, Neurosciences,...
Les questions de choix et de validation de modèles intéressent également les chercheurs de Dauphine - PSL.
Sur cette thématique, la création des boîtes à outils pour praticiens et la mise en place des algorithmes sur architecture massivement parallèle s’avère utile.
Nos recherches
dans les laboratoires de l'université
Cette thématique des phénomènes de grande dimension est développée à Dauphine - PSL notamment au CEREMADE autour de la statistique de grande dimension, des problèmes inverses stochastiques, des modèles de graphes aléatoires et de matrices aléatoires, de la statistique bayésienne approchée (méthodes ABC), et des algorithmes stochastiques.
Ces recherches tirent parti de liaisons avec l’analyse mathématique et la physique statistique.
Nos chercheurs
Nos autres chercheurs
Emmanuel Bacry, Laëtitia Comminges, Laure Dumaz, Marc Hoffmann, Joseph Lehec, Angelina Roche, Fabrice Rossi, Justin Salez, Julien Stoehr
Exemples de publications
- Clarté, G., Robert, C. P., Ryder, R and Stoehr, J. (2019) Component-wise approximate Bayesian computation via Gibbs-like steps. arXiv:1905.13599
- Collier, Olivier; Comminges, Laëtitia; Tsybakov, Alexandre B.; Verzelen, Nicolas. Optimal adaptive estimation of linear functionals under sparsity. Ann. Statist. 46 (2018), no. 6A, 3130–3150.
- Bernton, Espen; Jacob, Pierre E.; Gerber, Mathieu; Robert, Christian P. Approximate Bayesian computation with the Wasserstein distance. J. R. Stat. Soc. Ser. B. Stat. Methodol. 81 (2019), no. 2, 235–269.
- Waldspurger, Irène Phase retrieval with random Gaussian sensing vectors by alternating projections. IEEE Trans. Inform. Theory 64 (2018), no. 5, 3301–3312.
- Donnet, Sophie; Rivoirard, Vincent; Rousseau, Judith; Scricciolo, Catia. Posterior concentration rates for empirical Bayes procedures with applications to Dirichlet process mixtures. Bernoulli 24 (2018), no. 1, 231–256.
- Roche, Angelina. Local optimization of black-box functions with high or infinite-dimensional inputs: application to nuclear safety. Comput. Statist. 33 (2018), no. 1, 467–485.
- Chafaï, Djalil; Guédon, Olivier; Lecué, Guillaume; Pajor, Alain. Interactions between compressed sensing random matrices and high dimensional geometry.
Panoramas et Synthèses 37. Société Mathématique de France, Paris, 2012. 181 pp. ISBN: 978-2-85629-370-6 - A Endert, W Ribarsky, C Turkay, BL Wong, I Nabney, ID Blanco, F Rossi, The State of the Art in Integrating Machine Learning into Visual Analytics, Computer Graphics Forum (2017)
- K Françoisse, I Kivimäki, A Mantrach, F Rossi, M Saerens, A bag-of-paths framework for network data analysis, Neural Networks (2017)