Dans le domaine de la classification, les algorithmes d'apprentissage par compression d'échantillons sont des algorithmes qui utilisent les données d'apprentissage disponibles pour construire l'ensemble de classificateurs possibles. Si les données appartiennent seulement à un petit sous-espace de l'espace de toutes les données «possibles», ces algorithmes possédent l'intéressante capacité de ne considérer que les classificateurs qui permettent de distinguer les exemples qui appartiennent à notre domaine d'intérêt. Ceci contraste avec d'autres algorithmes qui doivent considérer l'ensemble des classificateurs avant d'examiner les données d'entraînement. La machine à vecteurs de support (le SVM) est un algorithme d'appre...
En raison de l'expansion des données, les algorithmes de compression sont désormais cruciaux. Nous a...
In this paper we investigate connections between statistical learning theory and data compression on...
We provide a PAC-Bayesian bound for the expected loss of convex combinations of classifiers under a ...
Dans un premier temps, ce mémoire présente un théorème PAC-Bayes général, duquel il est possible d'o...
This paper focuses on a general setup for obtaining sample size lower bounds for learning concept cl...
This thesis studies the generalization behavior of algorithms in Sample Compression Settings. It ext...
Die Arbeit beschäftigt sich mit der Kern-basierten überwachten Klassifikation von Mustern im Rahmen ...
La thèse se place dans le cadre de l'apprentissage statistique. Elle apporte des contributions à la ...
We show that several important Bayesian bounds studied in machine learning, both in the batch as wel...
We present a bound on the generalisation error of linear classifiers in terms of a refined margin qu...
We provide a PAC-Bayesian bound for the expected loss of convex combinations of classifiers under a ...
This manuscript studies the statistical performances of kernel methods to solve the binary classific...
This thesis interests in different methods of image compression combining both Bayesian aspects and ...
PAC-Bayes bounds have been proposed to get risk estimates based on a training sample. In this paper...
Cette thèse s'intéresse à différentes techniques de compression d'image combinant à la fois des aspe...
En raison de l'expansion des données, les algorithmes de compression sont désormais cruciaux. Nous a...
In this paper we investigate connections between statistical learning theory and data compression on...
We provide a PAC-Bayesian bound for the expected loss of convex combinations of classifiers under a ...
Dans un premier temps, ce mémoire présente un théorème PAC-Bayes général, duquel il est possible d'o...
This paper focuses on a general setup for obtaining sample size lower bounds for learning concept cl...
This thesis studies the generalization behavior of algorithms in Sample Compression Settings. It ext...
Die Arbeit beschäftigt sich mit der Kern-basierten überwachten Klassifikation von Mustern im Rahmen ...
La thèse se place dans le cadre de l'apprentissage statistique. Elle apporte des contributions à la ...
We show that several important Bayesian bounds studied in machine learning, both in the batch as wel...
We present a bound on the generalisation error of linear classifiers in terms of a refined margin qu...
We provide a PAC-Bayesian bound for the expected loss of convex combinations of classifiers under a ...
This manuscript studies the statistical performances of kernel methods to solve the binary classific...
This thesis interests in different methods of image compression combining both Bayesian aspects and ...
PAC-Bayes bounds have been proposed to get risk estimates based on a training sample. In this paper...
Cette thèse s'intéresse à différentes techniques de compression d'image combinant à la fois des aspe...
En raison de l'expansion des données, les algorithmes de compression sont désormais cruciaux. Nous a...
In this paper we investigate connections between statistical learning theory and data compression on...
We provide a PAC-Bayesian bound for the expected loss of convex combinations of classifiers under a ...