Au cœur de l’IA moderne
L'apprentissage automatique, domaine à la croisée de l’informatique et des mathématiques appliquées, a pour but de concevoir des modèles de décisions automatiques, à des fins de prédiction ou d’explication, à partir des données ou d’expériences, et qui s’améliorent dans le temps.
À l'ère du « Big Data », l'information est omniprésente et n'est plus à l'échelle humaine. Cela rend l'utilisation et le développement de méthodes d'apprentissage automatique nécessaires.
Apprentissage profond
Optimisation
Statistiques en grandes dimensions
Garanties théoriques
Algorithmes efficaces
Confidentialité
Robustesse aux attaques adverses
Équité
Apprentissage en ligne
Inférence bayésienne
Des champs d'applications multiples, couverts à Dauphine - PSL
Santé (Imagerie médicale, signaux EEG pour les Interfaces Cerveau/Machine)
Robotique (notamment robotique d'assistance)
Traitement des images et vision par ordinateur
Traitement automatique des langues
Art et sciences humaines
Jeux
...
Nos recherches
Les travaux en apprentissage automatique couvrent l’ensemble du spectre de ce domaine de recherche, de ses fondements théoriques et algorithmiques aux applications les plus avancées.
Ces recherches, menées au sein de nos laboratoires LAMSADE et CEREMADE, couvrent les thèmes suivants :
- Théorie de l'apprentissage profond (deep learning)
- Optimisation pour l'apprentissage automatique
- Inférence bayésienne
- Modèles parcimonieux et grandes dimensions
- Acquisition comprimée
- Recherche Monte Carlo arborescente
- Apprentissage pour les jeux
- Apprentissage en ligne et théorie des jeux
- Apprentissage par renforcement
- Apprentissage non-supervisé à large échelle
- Modèles préservant la confidentialité (par exemple, confidentialité différentielle)
- Equité dans l’apprentissage automatique
- Robustesse contre les attaques adverses
- IA explicable et interprétable : inférence causale, modèles parcimonieux
- Apprentissage profond économe en énergie
- Apprentissage en ligne et apprentissage multi-agents
Nos chercheurs
Nos autres chercheurs
Jamal Atif, Jerome Lang, Rida Laraki, Florian Yger, Benjamin Negrevergne, Clément Royer, Fabrice Rossi, Julien Stoehlr, Marc Hoffmann, Robin Ryder, Vincent Rivoirard, Laurent Cohen
Exemples de travaux
- Pinot R., Meunier L., Araujo A., Kashima H., Yger F., Gouy-Pailler C., Atif J. Theoretical evidence for adversarial robustness through randomization. In Advances in Neural Information Processing Systems (pp. 11838-11848) (2019)
- Bucci MA., Semeraro O., Allauzen A., Wisniewski G., Cordier L., Mathelin L. Control of chaotic systems by deep reinforcement learning. Proceedings of the Royal Society A 475 (2231), 20190351 (2019)
- Bacry E., Gaïffas S., Kabeshova A., Yu Y. ZiMM : a deep learning model for long term adverse events with non-clinical claims data. arXiv preprint arXiv:1911.05346 (2019)
- Morel M., Bacry E., Gaiffas S., Guilloux A., Leroy F. ConvSCCS : convolutional self-controlled case-series model for lagged adverser event detection. Biostatistics (2019)
- Raynal L., Marin JM., Pudlo P., Ribatet M., Robert CP., Estoup A. ABC random forests for Bayesian parameter inference. Bioinform. 35(10) : 1720-1728 (2019)
- Frazier D., Robert C., Rousseau J. Model Misspecification in ABC : Consequences and Diagnostics. Journal of the Royal Statistical Society. Series B, Statistical Methodology (2019)
- Groscot R., Cohen LD. Shape part Transfer via semantic latent space factorization 4th conference on Geometric Science of Information (GSI2019), Aug 2019, Toulouse, France
- Yamane, I., Yger, F., Atif, J., Sugiyama, M. Uplift modeling from separate labels. In Advances in Neural Information Processing Systems (pp. 9927-9937) (2018)
- Cazenave T. Residual Networks for Computer Go. IEEE Trans. Games 10(1) : 107-110 (2018)
- Labeau M., Allauzen A. Learning with Noise-Contrastive Estimation : Easing training by learning to scale. COLING 2018 : 3090-3101