Généricité et explicabilité dans les systèmes de recommandation
30/11/2023 à 10h00
M. Jinfeng ZHONG présente ses travaux en soutenance le 30/11/2023 à 10h00
À l'adresse suivante : Université Paris Dauphine-PSL Pl. du Maréchal de Lattre de Tassigny, 75016 Paris Salle des thèses - D520
En vue de l'obtention du diplôme : Doctorat en Informatique
La soutenance est publique
Titre des travaux
Généricité et explicabilité dans les systèmes de recommandation
École doctorale
École doctorale Dauphine SDOSE
Équipe de recherche
UMR 7243 - Laboratoire d’Analyse et de Modélisation de Systèmes d’Aide à la Décision
Section CNU
27 - Informatique
Directeur(s)
Mme Elsa NEGRE
Membres du jury
Nom | Qualité | Établissement | Rôle |
---|---|---|---|
Mme Elsa NEGRE | Maître de conférences | UNIVERSITE PARIS DAUPHINE - PSL | Directrice de thèse |
M. Vincent GUIGUE | Professeur | AgroParisTech | Rapporteur |
Mme Armelle BRUN | Professeur des universités | Université de Lorraine | Rapporteure |
M. Max CHEVALIER | Professeur des universités | Université Paul Sabatier, IRIT | Examinateur |
M. Florian YGER | Maître de conférences | UNIVERSITE PARIS DAUPHINE - PSL | Examinateur |
M. Nicolas LABROCHE | Maître de conférences | Ecole Polytechnique de l'Université de Tours (EPU) | Examinateur |
Résumé
Cette thèse se concentre sur le domaine des recommandations explicables, souvent mentionnées dans le contexte de l'intelligence artificielle explicable (XAI). Ce sont des recommandations faites par un système qui fournit également des informations pour justifier pourquoi ces recommandations ont été générées. Plus spécifiquement, le problème des recommandations explicables implique de générer des recommandations précises et de créer des explications pour justifier ces recommandations. Nous commençons par aborder l'ambiguïté répandue dans les termes couramment utilisés en Intelligence Artificielle (IA), tels que ''interprétabilité'' et ''explicabilité''. Pour lever cette ambiguïté sur des termes souvent utilisés mais mal définis, nous introduisons le Schéma Interpréter/Expliquer (IES). L'IES aide à clarifier ces termes et constitue la base d'un cadre général et innovant pour générer des explications en IA. Ce cadre intègre de manière transparente les approches existantes pour générer des explications : les explications intrinsèques au modèle et les explications post-hoc. Dans le cadre des explications intrinsèques au modèle, nous introduisons deux modèles qui instancient l'IES : Attribute-Aware Argumentative Recommender (A3R) et Context-Aware Feature Attribution Through Argumentation (CA-FATA). Les deux conduisent l'attribution de caractéristiques par argumentation. A3R considère les caractéristiques des éléments recommandables comme des arguments qui déterminent les recommandations, tandis que CA-FATA étend cette approche pour prendre en compte les contextes des utilisateurs. Les deux modèles montrent une performance compétitive face aux modèles existants, offrant des explications transparentes et adaptables. Dans le cadre des explications post-hoc, Shap-Enhanced Counterfactual Explanation (SECE) est introduite, validant l'attribution de caractéristiques par raisonnement contrefactuel. Cette approche peut être universellement appliquée à n'importe quel modèle de recommandation. La thèse comprend également une étude utilisateur primaire sous la forme d'un questionnaire explorant l'influence des informations contextuelles sur les explications au sein des systèmes de recommandation (RSs). Ce questionnaire centré sur l'utilisateur aide à souligner les objectifs de promotion de la transparence, de l'efficacité, de la persuasion et de la confiance dans les RSs. Dans l'ensemble, cette recherche non seulement lève l'ambiguïté sur les termes clés du domaine, mais propose également des méthodologies innovantes pour les recommandations explicables. Les instanciations de l'IES démontrent son applicabilité et contribuent à une compréhension essentielle de la génération d'explications dans les RSs et donc en IA, offrant de nouvelles voies pour des RSs transparents et dignes de confiance.