Dauphine Numérique - Nos recherches
Apprentissage automatique

Au cœur de l’IA moderne

L'apprentissage automatique, domaine à la croisée de l’informatique et des mathématiques appliquées, a pour but de concevoir des modèles de décisions automatiques, à des fins de prédiction ou d’explication, à partir des données ou d’expériences, et qui s’améliorent dans le temps.

À l'ère du « Big Data », l'information est omniprésente et n'est plus à l'échelle humaine. Cela rend l'utilisation et le développement de méthodes d'apprentissage automatique nécessaires.

Mots-clés

Théorie de l'apprentissage profond (deep learning)
Optimisation pour l'apprentissage automatique
Inférence bayésienne
Modèles parcimonieux et grandes dimensions
Acquisition comprimée
Recherche Monte Carlo arborescente
Apprentissage pour les jeux
Apprentissage en ligne et théorie des jeux
Apprentissage par renforcement
Apprentissage non-supervisé à large échelle
Modèles préservant la confidentialité (par exemple, confidentialité différentielle)
Equité dans l’apprentissage automatique
Robustesse contre les attaques adverses
IA explicable et interprétable : inférence causale, modèles parcimonieux
Apprentissage profond économe en énergie
Apprentissage en ligne et apprentissage multi-agents

Des champs d'applications multiples, couverts à Dauphine - PSL

 

Santé (Imagerie médicale, signaux EEG pour les Interfaces Cerveau/Machine)

Robotique (notamment robotique d'assistance)

Traitement des images et vision par ordinateur

Traitement automatique des langues

Art et sciences humaines

Jeux

...

Nos recherches dans les laboratoires de l'université

Les travaux en apprentissage automatique couvrent l’ensemble du spectre de ce domaine de recherche, de ses fondements théoriques et algorithmiques aux applications les plus avancées.

Ces recherches, menées au sein de nos laboratoires LAMSADE et CEREMADE, couvrent l’apprentissage supervisé, non supervisé ou faiblement supervisé, l’apprentissage profond, par renforcement et en ligne.

Les chercheurs à Dauphine - PSL

Exemples de travaux

  • Pinot R., Meunier L., Araujo A., Kashima H., Yger F., Gouy-Pailler C., Atif J. Theoretical evidence for adversarial robustness through randomization. In Advances in Neural Information Processing Systems (pp. 11838-11848) (2019)
  • Bucci MA., Semeraro O., Allauzen A., Wisniewski G., Cordier L., Mathelin L. Control of chaotic systems by deep reinforcement learning. Proceedings of the Royal Society A 475 (2231), 20190351 (2019)
  • Bacry E., Gaïffas S., Kabeshova A., Yu Y. ZiMM : a deep learning model for long term adverse events with non-clinical claims data. arXiv preprint arXiv:1911.05346 (2019)
  • Morel M., Bacry E., Gaiffas S., Guilloux A., Leroy F. ConvSCCS : convolutional self-controlled case-series model for lagged adverser event detection. Biostatistics (2019)
  • Raynal L., Marin JM., Pudlo P., Ribatet M., Robert CP., Estoup A. ABC random forests for Bayesian parameter inference. Bioinform. 35(10) : 1720-1728 (2019)
  • Frazier D., Robert C., Rousseau J. Model Misspecification in ABC : Consequences and Diagnostics. Journal of the Royal Statistical Society. Series B, Statistical Methodology (2019)
  • Groscot R., Cohen LD. Shape part Transfer via semantic latent space factorization 4th conference on Geometric Science of Information (GSI2019), Aug 2019, Toulouse, France
  • Yamane, I., Yger, F., Atif, J., Sugiyama, M. Uplift modeling from separate labels. In Advances in Neural Information Processing Systems (pp. 9927-9937) (2018)
  • Cazenave T. Residual Networks for Computer Go. IEEE Trans. Games 10(1) : 107-110 (2018)
  • Labeau M., Allauzen A. Learning with Noise-Contrastive Estimation : Easing training by learning to scale. COLING 2018 : 3090-3101

Pour aller plus loin