Soutenances de thèse

fiabilité des modèles de langage génératifs : efficacité, fidélité et couverture

26/11/2025 à 14h00

M. Florian LE BRONNEC présente ses travaux en soutenance le 26/11/2025 à 14h00

À l'adresse suivante : 3 Rue Amyot, 75005 Paris Amphithéâtre Amyot - PSL

En vue de l'obtention du diplôme : Doctorat en Informatique

La soutenance est publique

Titre des travaux

fiabilité des modèles de langage génératifs : efficacité, fidélité et couverture

École doctorale

École doctorale Dauphine SDOSE

Équipe de recherche

UMR 7243 - Laboratoire d'Analyse et de Modélisation de Systèmes d'Aide à la Décision

Section CNU

9 - Sciences et technologies de l'information et de la communication

Directeur(s)

Alexandre ALLAUZEN

Membres du jury

Nom Qualité Établissement Rôle
M. Alexandre ALLAUZEN Professeur des universités UNIVERSITE PARIS DAUPHINE - PSL Directeur de these
M. Benoit CRABBé Professeur des universités Université Paris Cité Rapporteur
M. Eric GAUSSIER Professeur des universités Université Grenoble Alpes Rapporteur
Mme Céline HUDELOT Professeur des universités CentraleSupélec Examinateur
M. Vincent GUIGUE Professeur des universités AgroParisTech Co-encadrant de these

Résumé

Cette thèse étudie comment rendre les modèles de langage génératif plus fiables en abordant deux défis majeurs : la précision dans la génération conditionnelle et la diversité des sorties. Nous analysons l'influence des choix architecturaux et des méthodes d'entraînement sur ces aspects et proposons des solutions ciblées qui améliorent la fiabilité selon différentes dimensions de la génération de texte.

 

Nous commençons par formaliser la génération de texte à l'aide d'outils issus de la modélisation probabiliste, en passant en revue les objectifs d'entraînement et les innovations architecturales qui ont conduit aux modèles de langage de grande taille actuels. Cette partie fournit une perspective unificatrice pour analyser à la fois la génération conditionnelle et la couverture distributionnelle.

 

Dans ce cadre, nous examinons d'abord la synthèse de textes longs, un domaine où les architectures de type transformeur rencontrent des limites computationnelles. Nous proposons une architecture encodeur-décodeur basée sur les modèles d'espace d'états, qui réduit les besoins en mémoire et permet de traiter des séquences beaucoup plus longues tout en maintenant des performances compétitives.

 

Nous nous tournons ensuite vers les méthodes d'entraînement pour la fidélité, en étudiant comment empêcher les modèles d'introduire des informations non justifiées. À cette fin, nous introduisons Scope, un cadre auto-supervisé qui génère des exemples infidèles et applique un entraînement par préférences pour atténuer les motifs trompeurs. Scope améliore l'alignement avec l'entrée sans nécessiter d'annotations humaines, produisant ainsi des sorties plus fidèles dans divers contextes d'évaluation.

 

Enfin, nous étudions la couverture distributionnelle, en cherchant à équilibrer qualité et diversité des sorties. Nous adaptons le cadre Précision-Rappel, initialement proposé pour la génération d'images, à la génération de texte, en introduisant de nouvelles métriques qui révèlent les compromis systématiques induits par l'adaptation fine. Nous montrons également que le pilotage des modèles requiert davantage que de simples ajustements de température lors de l'inférence, et proposons des fonctions de perte fondées sur Précision-Rappel pour mieux contrôler ce compromis.

Toutes les soutenances de thèse