Soutenances de thèse

Généricité et explicabilité dans les systèmes de recommandation

30/11/2023 à 10h00

M. Jinfeng ZHONG présente ses travaux en soutenance le 30/11/2023 à 10h00

À l'adresse suivante : Université Paris Dauphine-PSL Pl. du Maréchal de Lattre de Tassigny, 75016 Paris Salle des thèses - D520

En vue de l'obtention du diplôme : Doctorat en Informatique

La soutenance est publique

Titre des travaux

Généricité et explicabilité dans les systèmes de recommandation

École doctorale

École doctorale Dauphine SDOSE

Équipe de recherche

UMR 7243 - Laboratoire d’Analyse et de Modélisation de Systèmes d’Aide à la Décision

Section CNU

27 - Informatique

Directeur(s)

Mme Elsa NEGRE

Membres du jury

Nom Qualité Établissement Rôle
Mme Elsa NEGRE Maître de conférences UNIVERSITE PARIS DAUPHINE - PSL Directrice de thèse
M. Vincent GUIGUE Professeur AgroParisTech Rapporteur
Mme Armelle BRUN Professeur des universités Université de Lorraine Rapporteure
M. Max CHEVALIER Professeur des universités Université Paul Sabatier, IRIT Examinateur
M. Florian YGER Maître de conférences UNIVERSITE PARIS DAUPHINE - PSL Examinateur
M. Nicolas LABROCHE Maître de conférences Ecole Polytechnique de l'Université de Tours (EPU) Examinateur

Résumé

Cette thèse se concentre sur le domaine des recommandations explicables, souvent mentionnées dans le contexte de l'intelligence artificielle explicable (XAI). Ce sont des recommandations faites par un système qui fournit également des informations pour justifier pourquoi ces recommandations ont été générées. Plus spécifiquement, le problème des recommandations explicables implique de générer des recommandations précises et de créer des explications pour justifier ces recommandations. Nous commençons par aborder l'ambiguïté répandue dans les termes couramment utilisés en Intelligence Artificielle (IA), tels que ''interprétabilité'' et ''explicabilité''. Pour lever cette ambiguïté sur des termes souvent utilisés mais mal définis, nous introduisons le Schéma Interpréter/Expliquer (IES). L'IES aide à clarifier ces termes et constitue la base d'un cadre général et innovant pour générer des explications en IA. Ce cadre intègre de manière transparente les approches existantes pour générer des explications : les explications intrinsèques au modèle et les explications post-hoc. Dans le cadre des explications intrinsèques au modèle, nous introduisons deux modèles qui instancient l'IES : Attribute-Aware Argumentative Recommender (A3R) et Context-Aware Feature Attribution Through Argumentation (CA-FATA). Les deux conduisent l'attribution de caractéristiques par argumentation. A3R considère les caractéristiques des éléments recommandables comme des arguments qui déterminent les recommandations, tandis que CA-FATA étend cette approche pour prendre en compte les contextes des utilisateurs. Les deux modèles montrent une performance compétitive face aux modèles existants, offrant des explications transparentes et adaptables. Dans le cadre des explications post-hoc, Shap-Enhanced Counterfactual Explanation (SECE) est introduite, validant l'attribution de caractéristiques par raisonnement contrefactuel. Cette approche peut être universellement appliquée à n'importe quel modèle de recommandation. La thèse comprend également une étude utilisateur primaire sous la forme d'un questionnaire explorant l'influence des informations contextuelles sur les explications au sein des systèmes de recommandation (RSs). Ce questionnaire centré sur l'utilisateur aide à souligner les objectifs de promotion de la transparence, de l'efficacité, de la persuasion et de la confiance dans les RSs. Dans l'ensemble, cette recherche non seulement lève l'ambiguïté sur les termes clés du domaine, mais propose également des méthodologies innovantes pour les recommandations explicables. Les instanciations de l'IES démontrent son applicabilité et contribuent à une compréhension essentielle de la génération d'explications dans les RSs et donc en IA, offrant de nouvelles voies pour des RSs transparents et dignes de confiance.

Toutes les soutenances de thèse