fiabilité des modèles de langage génératifs : efficacité, fidélité et couverture
26/11/2025 à 14h00
M. Florian LE BRONNEC présente ses travaux en soutenance le 26/11/2025 à 14h00
À l'adresse suivante : 3 Rue Amyot, 75005 Paris Amphithéâtre Amyot - PSL
En vue de l'obtention du diplôme : Doctorat en Informatique
La soutenance est publique
Titre des travaux
fiabilité des modèles de langage génératifs : efficacité, fidélité et couverture
École doctorale
École doctorale Dauphine SDOSE
Équipe de recherche
UMR 7243 - Laboratoire d'Analyse et de Modélisation de Systèmes d'Aide à la Décision
Section CNU
9 - Sciences et technologies de l'information et de la communication
Directeur(s)
Alexandre ALLAUZEN
Membres du jury
| Nom | Qualité | Établissement | Rôle |
|---|---|---|---|
| M. Alexandre ALLAUZEN | Professeur des universités | UNIVERSITE PARIS DAUPHINE - PSL | Directeur de these |
| M. Benoit CRABBé | Professeur des universités | Université Paris Cité | Rapporteur |
| M. Eric GAUSSIER | Professeur des universités | Université Grenoble Alpes | Rapporteur |
| Mme Céline HUDELOT | Professeur des universités | CentraleSupélec | Examinateur |
| M. Vincent GUIGUE | Professeur des universités | AgroParisTech | Co-encadrant de these |
Résumé
Cette thèse étudie comment rendre les modèles de langage génératif plus fiables en abordant deux défis majeurs : la précision dans la génération conditionnelle et la diversité des sorties. Nous analysons l'influence des choix architecturaux et des méthodes d'entraînement sur ces aspects et proposons des solutions ciblées qui améliorent la fiabilité selon différentes dimensions de la génération de texte.
Nous commençons par formaliser la génération de texte à l'aide d'outils issus de la modélisation probabiliste, en passant en revue les objectifs d'entraînement et les innovations architecturales qui ont conduit aux modèles de langage de grande taille actuels. Cette partie fournit une perspective unificatrice pour analyser à la fois la génération conditionnelle et la couverture distributionnelle.
Dans ce cadre, nous examinons d'abord la synthèse de textes longs, un domaine où les architectures de type transformeur rencontrent des limites computationnelles. Nous proposons une architecture encodeur-décodeur basée sur les modèles d'espace d'états, qui réduit les besoins en mémoire et permet de traiter des séquences beaucoup plus longues tout en maintenant des performances compétitives.
Nous nous tournons ensuite vers les méthodes d'entraînement pour la fidélité, en étudiant comment empêcher les modèles d'introduire des informations non justifiées. À cette fin, nous introduisons Scope, un cadre auto-supervisé qui génère des exemples infidèles et applique un entraînement par préférences pour atténuer les motifs trompeurs. Scope améliore l'alignement avec l'entrée sans nécessiter d'annotations humaines, produisant ainsi des sorties plus fidèles dans divers contextes d'évaluation.
Enfin, nous étudions la couverture distributionnelle, en cherchant à équilibrer qualité et diversité des sorties. Nous adaptons le cadre Précision-Rappel, initialement proposé pour la génération d'images, à la génération de texte, en introduisant de nouvelles métriques qui révèlent les compromis systématiques induits par l'adaptation fine. Nous montrons également que le pilotage des modèles requiert davantage que de simples ajustements de température lors de l'inférence, et proposons des fonctions de perte fondées sur Précision-Rappel pour mieux contrôler ce compromis.