Dauphine Numérique - Nos recherches
IA responsable

Vers une IA responsable
au service de la société

Les progrès notables en matière d’intelligence artificielle (IA) accélèrent la mise en place de processus de décision plus efficaces. Cependant, confier la responsabilité d’un choix à une machine ou à un programme soulève d’importantes questions éthiques.

Qu’il s’agisse de la reproduction des biais présents dans les jeux de données ou de l’acceptabilité sociale des décisions prises, les questions posées sont à la fois technologiques, légales, sociétales et philosophiques. Certains acteurs s’engagent ainsi dans des technologies dites d’IA explicable, qui visent à permettre à des experts humains de comprendre les critères qui ont présidé aux choix effectués par les technologies d’IA.

Acceptabilité

Responsabilité sociale

Équité

Biais

Vie privée

Explicabilité

Applications

 

Les recherches en mathématiques et informatique à Dauphine - PSL, de très haut niveau scientifique, sont au cœur de démarches pluridisciplinaires impliquant sciences mathématiques et informatiques, et sciences humaines et sociales.

Il s’agit en premier lieu d’étudier et d’anticiper l’impact de ces algorithmes sur les organisations publiques et privées, de définir de nouveaux modes de gouvernance, et de concevoir, à partir d’échanges interdisciplinaires, des algorithmes conformes ‘by design’ aux exigences démocratiques (absence de biais, préservation de la vie privée, explicabilité, sûreté, acceptabilité sociale).

Nos recherches
dans les laboratoires de l'université

L'IA moderne pose des questions d’éthique relatives à la protection de la vie privée, la manipulation des données et l’explicabilité des modèles et résultats, mais aussi d'équité et de responsabilité sociale des algorithmes.

A l'avant-garde de la recherche dans ces domaines, nos actions couvrent l'apprentissage automatique sûr et de confiance, la responsabilité sociale des algorithmes, et la caractérisation des règles éthiques (normatives) et leur incorporation dans les mécanismes de décision automatisés.


Nos recherches
par thématiques

Apprentissage automatique de confiance

L'équipe-projet MILES rassemble des chercheurs issus de l'informatique théorique, des mathématiques appliquées et de la théorie des jeux.

Son intérêt pour la recherche couvre un large spectre du domaine de l'apprentissage automatique, allant de ses fondements théoriques aux applications.

  • Apprentissage automatique fiable : Robustesse contre les attaques adverses, Modèles préservant la confidentialité (par exemple, confidentialité différentielle), Équité en apprentissage automatique
  • IA explicable et interprétable : Inférence causale, Modèles parcimonieux
  • Réseaux de neurones profonds compacts et économes en énergie

Applications : Santé · Jeux · Robotique · Vision par ordinateur · Art et sciences humaines

Responsabilité sociale des algorithmes

Depuis 2017, Dauphine – PSL et ses partenaires du DIMACS (the Center for Discrete Mathematics and Theoretical Computer Science, USA) et du 3AI Institute (Australie), ont initié une série de conférences internationales portant sur la responsabilité sociale des algorithmes.

Le but de ces manifestations, outre de définir précisément les questions de recherche dans une démarche interdisciplinaire, est de produire des corpus de connaissances pouvant éclairer les chercheurs, développeurs et décideurs.

Éthique, normes sociales et prise de décision équitable

Le choix social computationnel, domaine à la frontière de l'économie, de la théorie des jeux et de l'informatique, traite de la conception et de l'analyse des mécanismes de décision collective (ex. partage équitable de ressources) du point de vue de la caractérisation axiomatique des mécanismes de décision et de l’impact, sur leur faisabilité, de leur complexité algorithmique, de leurs besoins informationnels, et de leur vulnérabilité aux comportements stratégiques.

Les questions d'éthique (égalité, équité, etc.) trouvent dans le choix social computationnel les outils nécessaires pour leur étude, en particulier lorsque ceux-ci sont posés du point de vue de la décision automatisée comme en apprentissage automatique.

Dauphine-PSL via le LAMSADE dispose d'une tradition de recherche très ancrée en caractérisation axiomatique de la décision et héberge une école de renommée mondiale en choix social computationnel.

Nos chercheurs

Alexandre Allauzen, Jamal Atif, Tristan Cazenave, Yann Chevaleyre, Jérôme Lang, Rida Laraki, Benjamin Negrevergne, Fabrice Rossi, Clément Royer, Florian Yger, Alexis Tsoukias, Thierry Kirat

Exemples de travaux

  • Workshop interdisciplinaire SRA 2019 – Social Responsability of Algorithms
  • Workshop interdisciplinaire SRA 2017 – Social Responsability of Algorithms
  • Pinot, R., Meunier, L., Araujo, A., Kashima, H., Yger, F., Gouy-Pailler, C., Atif, J. Theoretical evidence for adversarial robustness through randomization. In Advances in Neural Information Processing Systems (pp. 11838-11848) (2019).
  • Airiau S., Aziz H., Caragiannis I., Kruger J., Lang J., Peters D. Portioning Using Ordinal Preferences: Fairness and Efficiency. Peters IJCAI 2019 : 11-17
  • Aziz H., Bouveret S., Caragiannis I., Giagkousi I., Lang J. Knowledge, Fairness, and Social Constraints. AAAI 2018 : 4638-4645
  • Beynier A., Chevaleyre Y., Gourvès L., Harutyunyan A., Lesca J., Maudet N., Wilczynski A. Local envy-freeness in house allocation problems. Auton. Agents Multi Agent Syst. 33(5) : 591-627 (2019)
  • Yamane I., Yger F., Atif J., Sugiyama, M. Uplift modeling from separate labels. In Advances in Neural Information Processing Systems (pp. 9927-9937) (2018).
  • Clertant M., Sokolovska N., Chevaleyre Y., Hanczar, B. Interpretable Cascade Classifiers with Abstention. In The 22nd International Conference on Artificial Intelligence and Statistics (pp. 2312-2320) (2019, April)
  • Pinot R., Morvan A., Yger F., Gouy-Pailler C., Atif J. Graph-based Clustering under Differential Privacy. UAI 2018 : 329-338