En apprentissage statistique et traitement du signal, de nombreuses tâches se formulent sous la forme d’un problème d’optimisation de grande taille. Dans ce contexte, les méthodes du premier ordre, qui utilisent uniquement l’information apportée par le gradient de la fonction objectif, sont privilégiées en raison de leur faible coup par itération et de leur simplicité. Nous étudions dans cette thèse les méthodes du premier ordre à distance de Bregman, qui constituent une généralisation de la célèbre méthode de descente de gradient. Cette généralisation consiste à remplacer la distance euclidienne par une distance plus générale, dite de Bregman, générée par une fonction convexe noyau suffisamment simple. La fonction noyau est choisie de mani...
Nous traitons de modèles génératifs construits avec des réseaux de neurones dans le contexte de ...
RÉSUMÉ: Nous traitons le problème de reconstruction d'image en tomographie à rayons X. La re-constru...
RÉSUMÉ: L'objet de cette thèse est l'etude de deux types de dégénérescence en optimisation non linéa...
En apprentissage statistique et traitement du signal, de nombreuses tâches se formulent sous la form...
Concorder un modèle à certaines observations, voilà qui résume assez bien ce que l’apprentissage mac...
L’optimisation globale fiable est dédiée à la recherche d’un minimum global en présence d’erreurs d’...
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponi...
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de cal...
L’optimisation globale fiable est dédiée à la recherche d’un minimum global en présence d’erreurs d’...
Le problème de localisation-routage avec capacités (PLRC) apparaît comme un problème clé dans la con...
RÉSUMÉ: Le projet de recherche actuel évalue la capacité d'une méthode de décomposition de la traîné...
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de cal...
Les méthodes d’apprentissage profond connaissent une croissance fulgurante. Une explication de ce ph...
RÉSUMÉ: L'optimisation de centrales thermique et nucléaire a de nombreux avantages aussi bien,économ...
Dans cette thèse, nous introduisons et motivons la modélisation générative comme une tâche centrale ...
Nous traitons de modèles génératifs construits avec des réseaux de neurones dans le contexte de ...
RÉSUMÉ: Nous traitons le problème de reconstruction d'image en tomographie à rayons X. La re-constru...
RÉSUMÉ: L'objet de cette thèse est l'etude de deux types de dégénérescence en optimisation non linéa...
En apprentissage statistique et traitement du signal, de nombreuses tâches se formulent sous la form...
Concorder un modèle à certaines observations, voilà qui résume assez bien ce que l’apprentissage mac...
L’optimisation globale fiable est dédiée à la recherche d’un minimum global en présence d’erreurs d’...
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponi...
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de cal...
L’optimisation globale fiable est dédiée à la recherche d’un minimum global en présence d’erreurs d’...
Le problème de localisation-routage avec capacités (PLRC) apparaît comme un problème clé dans la con...
RÉSUMÉ: Le projet de recherche actuel évalue la capacité d'une méthode de décomposition de la traîné...
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de cal...
Les méthodes d’apprentissage profond connaissent une croissance fulgurante. Une explication de ce ph...
RÉSUMÉ: L'optimisation de centrales thermique et nucléaire a de nombreux avantages aussi bien,économ...
Dans cette thèse, nous introduisons et motivons la modélisation générative comme une tâche centrale ...
Nous traitons de modèles génératifs construits avec des réseaux de neurones dans le contexte de ...
RÉSUMÉ: Nous traitons le problème de reconstruction d'image en tomographie à rayons X. La re-constru...
RÉSUMÉ: L'objet de cette thèse est l'etude de deux types de dégénérescence en optimisation non linéa...