Cette thèse par article présente plusieurs contributions au domaine de l'apprentissage de représentations profondes, avec des applications aux problèmes de classification et de synthèse d'images naturelles. Plus spécifiquement, cette thèse présente plusieurs nouvelles techniques pour la construction et l'entraînment de réseaux neuronaux profonds, ainsi q'une étude empirique de la technique de «dropout», une des approches de régularisation les plus populaires des dernières années. Le premier article présente une nouvelle fonction d'activation linéaire par morceau, appellée «maxout», qui permet à chaque unité cachée d'un réseau de neurones d'apprendre sa propre fonction d'activation convexe. Nous démontrons une performance améliorée sur plus...
Le réseau de neurones récurrent (RNN) est l’un des plus puissants modèles d’apprentissage automatiqu...
RÉSUMÉ : L'ingénierie logicielle a élaboré des outils afin de rationaliser le processus de développe...
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponi...
Nous traitons de modèles génératifs construits avec des réseaux de neurones dans le contexte de ...
Dans cette thèse, nous introduisons et motivons la modélisation générative comme une tâche centrale ...
Ce mémoire de maı̂trise présente une exploration des modèles génératifs dans le contexte de la vidéo...
Ces dernières années, il y a eu un intérêt croissant dans le domaine de l'apprentissage profond pour...
Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il e...
Dans cette dissertation, nous présentons plusieurs techniques d’apprentissage d’espaces sémantiques ...
La recherche sur les réseaux de neurones a permis de réaliser de larges progrès durant la derniè...
L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles ...
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de cal...
Les méthodes d’apprentissage profond connaissent une croissance fulgurante. Une explication de ce ph...
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de cal...
Cette thèse explore deux idées différentes: — Une méthode améliorée d’entraînement de réseaux de neu...
Le réseau de neurones récurrent (RNN) est l’un des plus puissants modèles d’apprentissage automatiqu...
RÉSUMÉ : L'ingénierie logicielle a élaboré des outils afin de rationaliser le processus de développe...
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponi...
Nous traitons de modèles génératifs construits avec des réseaux de neurones dans le contexte de ...
Dans cette thèse, nous introduisons et motivons la modélisation générative comme une tâche centrale ...
Ce mémoire de maı̂trise présente une exploration des modèles génératifs dans le contexte de la vidéo...
Ces dernières années, il y a eu un intérêt croissant dans le domaine de l'apprentissage profond pour...
Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il e...
Dans cette dissertation, nous présentons plusieurs techniques d’apprentissage d’espaces sémantiques ...
La recherche sur les réseaux de neurones a permis de réaliser de larges progrès durant la derniè...
L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles ...
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de cal...
Les méthodes d’apprentissage profond connaissent une croissance fulgurante. Une explication de ce ph...
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de cal...
Cette thèse explore deux idées différentes: — Une méthode améliorée d’entraînement de réseaux de neu...
Le réseau de neurones récurrent (RNN) est l’un des plus puissants modèles d’apprentissage automatiqu...
RÉSUMÉ : L'ingénierie logicielle a élaboré des outils afin de rationaliser le processus de développe...
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponi...