International audienceNous proposons une solution au problème d'échantillonage uniforme dans les systèmes à grande échelle en présence de comportements byzantins. Notre premier algorithme permet d'uniformiser à la volée un flux de données (items) de taille non bornée, sous l'hypothèse que les probabilités exactes d'occurrence des items sont connues. Nous modélisons le comportement de notre algorithme par une chaîne de Markov dont nous étudions le régime stationnaire et le transitoire. Notre second algorithme relache l'hypothèse de connaissance de la probabilité d'occurrence des items dans le flux initial. Ces probabilités sont estimées à la volée en utilisant un espace mémoire logarithmique en la taille du flux. Nous évaluons la résilience ...
La croissance rapide de l’Internet des Objets (IdO) ainsi que la prolifération des capteurs ont donn...
National audienceLa répartition de la charge sur les opérateurs sans état parallélisé dans un systèm...
L’explosion récente des volumes de données disponibles a fait de la complexité algorithmique un e...
International audienceNous proposons une solution au problème d'échantillonage uniforme dans les sys...
International audienceL'analyse à la volée de flux massifs potentiellement infinis est fondamental d...
La dissémination collaborative d'une information d'un agent à tous les autres agents d'un système di...
International audienceIntroduites par Leo Breiman en 2001, les forêts aléatoires sont une méthode st...
La génération aléatoire d'objets combinatoires est un problème qui se pose dans de nombreux domaines...
Avec l’avènement du calcul numérique, l’échantillonnage est devenu un outil crucial pour l’évaluatio...
Avec l'augmentation du nombre de capteurs et d'actuateurs dans les avions et le développement de lia...
Dans la première partie de cette étude, nous proposons et analysons des algorithmes probabilistes d'...
National audienceLes morsures de queue et les comportements agressifs sont des comportements délétèr...
L'objectif de cette présentation est de montrer le rôle central de l'aléatoire dans des domaines de ...
Depuis environ une décennie, le traitement des flux de données est nécessaire. Pendant ces dix année...
International audienceLe modèle Gaussien est souvent utilisé dans de nombreuses applications. Cepend...
La croissance rapide de l’Internet des Objets (IdO) ainsi que la prolifération des capteurs ont donn...
National audienceLa répartition de la charge sur les opérateurs sans état parallélisé dans un systèm...
L’explosion récente des volumes de données disponibles a fait de la complexité algorithmique un e...
International audienceNous proposons une solution au problème d'échantillonage uniforme dans les sys...
International audienceL'analyse à la volée de flux massifs potentiellement infinis est fondamental d...
La dissémination collaborative d'une information d'un agent à tous les autres agents d'un système di...
International audienceIntroduites par Leo Breiman en 2001, les forêts aléatoires sont une méthode st...
La génération aléatoire d'objets combinatoires est un problème qui se pose dans de nombreux domaines...
Avec l’avènement du calcul numérique, l’échantillonnage est devenu un outil crucial pour l’évaluatio...
Avec l'augmentation du nombre de capteurs et d'actuateurs dans les avions et le développement de lia...
Dans la première partie de cette étude, nous proposons et analysons des algorithmes probabilistes d'...
National audienceLes morsures de queue et les comportements agressifs sont des comportements délétèr...
L'objectif de cette présentation est de montrer le rôle central de l'aléatoire dans des domaines de ...
Depuis environ une décennie, le traitement des flux de données est nécessaire. Pendant ces dix année...
International audienceLe modèle Gaussien est souvent utilisé dans de nombreuses applications. Cepend...
La croissance rapide de l’Internet des Objets (IdO) ainsi que la prolifération des capteurs ont donn...
National audienceLa répartition de la charge sur les opérateurs sans état parallélisé dans un systèm...
L’explosion récente des volumes de données disponibles a fait de la complexité algorithmique un e...