RÉSUMÉ: En raison de la popularité croissante des modèles de langage à base de Transformers (TLMs), il est de plus en plus nécessaire de mieux comprendre leurs forces et leurs limites s’ils doivent être utilisés pour aider les humains à résoudre des tâches complexes avec des implications réelles. Cette thèse se concentre particulièrement sur leurs capacités de raisonnement à plusieurs étapes, car il s’agit à la fois d’une faiblesse des modèles de langage et d’une direction de recherche potentiellement impactante. Tout d’abord, la généralisation compositionnelle des TLMs est évaluée sur une tâche de raisonnement logique en langage naturelle. Des modèles de Transformers décodeurs sont entraînés à répondre à des questions de prédiction de lien...
Les modèles de langage ont pour but de caractériser et d'évaluer la qualité des énoncés en langue na...
Les plongements de mots générés par les modèles de langue neuronaux encodent des informations riches...
Les modèles supervisés encodeurs-décodeurs nécessitent de grands datasets alignés pour être entraîné...
This paper presents an overview of the state of the art in natural language processing, exploring on...
As part of a larger project aimed at improving the current neural models of conversion between natur...
Les modèles computationnels pour la compréhension automatique des textes ont suscité un vif intérêt ...
Dans ce manuscrit de thèse, nous développons de nouveaux algorithmes et modèles pour résoudre les pr...
With the advent of Transformer architectures in Natural Language Processing a few years ago, we have...
International audienceOver the last five years, transfer approaches using Transformer-like models ha...
La génération en langue naturelle (natural language generation, NLG) est le processus qui consiste à...
This chapter presents an overview of the state of the art in natural language processing, exploring ...
Language Generation Models produce words based on the previous context. Although existing methods of...
El Procesament del Llenguatge Natural és el conjunt de tasques que tracten amb el llenguatge "humà"....
International audienceFor many tasks, state-of-the-art results have been achieved with Transformer-b...
This paper describes the models developed by the AILAB-Udine team for the SMM4H 22 Shared Task. We e...
Les modèles de langage ont pour but de caractériser et d'évaluer la qualité des énoncés en langue na...
Les plongements de mots générés par les modèles de langue neuronaux encodent des informations riches...
Les modèles supervisés encodeurs-décodeurs nécessitent de grands datasets alignés pour être entraîné...
This paper presents an overview of the state of the art in natural language processing, exploring on...
As part of a larger project aimed at improving the current neural models of conversion between natur...
Les modèles computationnels pour la compréhension automatique des textes ont suscité un vif intérêt ...
Dans ce manuscrit de thèse, nous développons de nouveaux algorithmes et modèles pour résoudre les pr...
With the advent of Transformer architectures in Natural Language Processing a few years ago, we have...
International audienceOver the last five years, transfer approaches using Transformer-like models ha...
La génération en langue naturelle (natural language generation, NLG) est le processus qui consiste à...
This chapter presents an overview of the state of the art in natural language processing, exploring ...
Language Generation Models produce words based on the previous context. Although existing methods of...
El Procesament del Llenguatge Natural és el conjunt de tasques que tracten amb el llenguatge "humà"....
International audienceFor many tasks, state-of-the-art results have been achieved with Transformer-b...
This paper describes the models developed by the AILAB-Udine team for the SMM4H 22 Shared Task. We e...
Les modèles de langage ont pour but de caractériser et d'évaluer la qualité des énoncés en langue na...
Les plongements de mots générés par les modèles de langue neuronaux encodent des informations riches...
Les modèles supervisés encodeurs-décodeurs nécessitent de grands datasets alignés pour être entraîné...