Dauphine Numérique - Nos recherches
Apprentissage automatique

Au cœur de l’IA moderne

L'apprentissage automatique, domaine à la croisée de l’informatique et des mathématiques appliquées, a pour but de concevoir des modèles de décisions automatiques, à des fins de prédiction ou d’explication, à partir des données ou d’expériences, et qui s’améliorent dans le temps.

À l'ère du « Big Data », l'information est omniprésente et n'est plus à l'échelle humaine. Cela rend l'utilisation et le développement de méthodes d'apprentissage automatique nécessaires.

Apprentissage profond
Optimisation
Statistiques en grandes dimensions
Garanties théoriques
Algorithmes efficaces
Confidentialité
Robustesse aux attaques adverses
Équité
Apprentissage en ligne
Inférence bayésienne

Des champs d'applications multiples, couverts à Dauphine - PSL

 

Santé (Imagerie médicale, signaux EEG pour les Interfaces Cerveau/Machine)

Robotique (notamment robotique d'assistance)

Traitement des images et vision par ordinateur

Traitement automatique des langues

Art et sciences humaines

Jeux

...

Nos recherches

Les travaux en apprentissage automatique couvrent l’ensemble du spectre de ce domaine de recherche, de ses fondements théoriques et algorithmiques aux applications les plus avancées.

Ces recherches, menées au sein de nos laboratoires LAMSADE et CEREMADE, couvrent les thèmes suivants :

    • Théorie de l'apprentissage profond (deep learning)
    • Optimisation pour l'apprentissage automatique
    • Inférence bayésienne
    • Modèles parcimonieux et grandes dimensions
    • Acquisition comprimée
    • Recherche Monte Carlo arborescente
    • Apprentissage pour les jeux
    • Apprentissage en ligne et théorie des jeux
    • Apprentissage par renforcement
    • Apprentissage non-supervisé à large échelle
    • Modèles préservant la confidentialité (par exemple, confidentialité différentielle)
    • Equité dans l’apprentissage automatique
    • Robustesse contre les attaques adverses
    • IA explicable et interprétable : inférence causale, modèles parcimonieux
    • Apprentissage profond économe en énergie
    • Apprentissage en ligne et apprentissage multi-agents

    Nos chercheurs

    Alexandre Allauzen, Jamal Atif, Tristan Cazenave, Yann Chevaleyre, Jerome Lang, Rida Laraki, Florian Yger, Benjamin Negrevergne, Clément Royer, Fabrice Rossi, Christian Robert, Julien Stoehlr, Marc Hoffmann, Robin Ryder, Vincent Rivoirard, Laurent Cohen, Irene Waldspurger, Emmanuel Bacry

    Exemples de travaux

    • Pinot R., Meunier L., Araujo A., Kashima H., Yger F., Gouy-Pailler C., Atif J. Theoretical evidence for adversarial robustness through randomization. In Advances in Neural Information Processing Systems (pp. 11838-11848) (2019)
    • Bucci MA., Semeraro O., Allauzen A., Wisniewski G., Cordier L., Mathelin L. Control of chaotic systems by deep reinforcement learning. Proceedings of the Royal Society A 475 (2231), 20190351 (2019)
    • Bacry E., Gaïffas S., Kabeshova A., Yu Y. ZiMM : a deep learning model for long term adverse events with non-clinical claims data. arXiv preprint arXiv:1911.05346 (2019)
    • Morel M., Bacry E., Gaiffas S., Guilloux A., Leroy F. ConvSCCS : convolutional self-controlled case-series model for lagged adverser event detection. Biostatistics (2019)
    • Raynal L., Marin JM., Pudlo P., Ribatet M., Robert CP., Estoup A. ABC random forests for Bayesian parameter inference. Bioinform. 35(10) : 1720-1728 (2019)
    • Frazier D., Robert C., Rousseau J. Model Misspecification in ABC : Consequences and Diagnostics. Journal of the Royal Statistical Society. Series B, Statistical Methodology (2019)
    • Groscot R., Cohen LD. Shape part Transfer via semantic latent space factorization 4th conference on Geometric Science of Information (GSI2019), Aug 2019, Toulouse, France
    • Yamane, I., Yger, F., Atif, J., Sugiyama, M. Uplift modeling from separate labels. In Advances in Neural Information Processing Systems (pp. 9927-9937) (2018)
    • Cazenave T. Residual Networks for Computer Go. IEEE Trans. Games 10(1) : 107-110 (2018)
    • Labeau M., Allauzen A. Learning with Noise-Contrastive Estimation : Easing training by learning to scale. COLING 2018 : 3090-3101

    Pour aller plus loin