Loïc Vial - Modèles neuronaux joints de désambiguïsation lexicale et de traduction automatique

10:00
Lundi
20
Jui
2020
Organisé par : 
Loïc Vial
Intervenant : 
Loïc Vial
Équipes : 

 

Composition du jury :

  • Benjamin Lecouteux, maître de conférences, Université Grenoble Alpes, directeur de thèse
  • Didier Schwab, maître de conférences, Université Grenoble Alpes, examinateur et co-encadrant de thèse
  • Mathieu Lafourcade, maître de conférences HDR, Université de Montpellier, rapporteur
  • Pierre Zweigenbaum, directeur de recherche, CNRS Île-de-France Gif-sur-Yvette, rapporteur
  • Frédéric Béchet, professeur des universités, Université Aix-Marseille, examinateur
  • Laurent Besacier, professeur des universités, Université Grenoble Alpes, examinateur 

 

La désambiguïsation lexicale (DL) et la traduction automatique (TA) sont deux tâches centrales parmi les plus anciennes du traitement automatique des langues (TAL). Bien qu'ayant une origine commune, la DL ayant été conçue initialement comme un problème fondamental à résoudre pour la TA, les deux tâches ont par la suite évolué très indépendamment. En effet, d'un côté, la TA a su s'affranchir d'une désambiguïsation explicite des termes grâce à des modèles statistiques et neuronaux entraînés sur de grandes quantités de corpus parallèles, et de l'autre, la DL, qui est confrontée à certaines limitations comme le manque de ressources unifiées et un champs d'application encore restreint, reste un défi majeur pour permettre une meilleure compréhension de la langue en général.
Aujourd'hui, dans un contexte où les méthodes à base de réseaux de neurones et les représentations vectorielles des mots prennent de plus en plus d'ampleur dans la recherche en TAL, les nouvelles architectures neuronales et les nouveaux modèles de langue pré-entraînés offrent non seulement de nouvelles possibilités pour développer des systèmes de DL et de TA plus performants, mais aussi une opportunité de réunir les deux tâches à travers des modèles neuronaux joints, permettant de faciliter l'étude de leurs interactions.
Dans cette thèse, nos contributions porteront dans un premier temps sur l'amélioration des systèmes de DL, par l'unification des données nécessaires à leur mise en oeuvre, la conception de nouvelles architectures neuronales et le développement d'approches originales pour l'amélioration de la couverture et des performances de ces systèmes. Ensuite, nous développerons et comparerons différentes approches pour l'intégration de nos systèmes de DL état de l'art et des modèles de langue, dans des systèmes de TA, pour l'amélioration générale de leur performance. Enfin, nous présenterons une nouvelle architecture pour l'apprentissage d'un modèle neuronal joint pour la DL et la TA, s'appuyant sur nos meilleurs systèmes neuronaux pour l'une et l'autre tâche.