National audienceRésoudre optimalement des processus décisionnels de Markov partiellement observables et décentralisés (Dec-POMDPs) est un problème combinatoire difficile. Les algorithmes actuels cherchent pour chaque agent à travers l'espace complet des politiques sur les historiques. A cause de la croissance doublement exponentielle de cet espace quand l'horizon de planification croît, ces méthodes deviennent rapidement insolubles. Toutefois, dans des problèmes réels, calculer des politiques sur l'espace des historiques complet est souvent inutile. L'extraction des informations pertinentes d'un historique permet de réduire le nombre d'historiques utiles. Nous montrons qu'en transformant un Dec-POMDP en un MDP continu, nous sommes capables...
Traditionnellement, les travaux de recherche en décision séquentielle dans l'incertain avec observab...
National audienceLa résolution parallèle efficace de simulations numériques dont les coûts de calcul...
International audienceNous étudions la tâche de l'approche entre deux agents mobiles ayant la même p...
National audienceNous nous intéressons au problème consistant à trouver une politique jointe optimal...
National audienceNous proposons une approche heuristique pour calculer une politique approchée d'un ...
National audienceDans cet article, nous nous intéressons à un problème d'apprentissage actif consist...
National audienceLes difficultés rencontrées dans les problèmes de décision séquentielle dans l'ince...
Patrouiller implique habituellement une équipe d'agents dont le but consiste à visiter aussi fréquem...
International audiencePour beaucoup d'applications réelles nécessitant une prise de déci-sion séquen...
National audienceEn apprentissage par renforcement, LSTD est l'un des algorithmes d'approximation de...
National audienceNous considérons des algorithmes pour apprendre des Mélanges bootstrap d'Arbres d...
National audienceLa résolution de problèmes à états et actions continus par l'optimisation de politi...
Nous présentons ici MAA*, le premier algorithme de recherche heuristique à la fois complet et optima...
L'optimisation multidisciplinaire fait référence à la conception et l'optimisation de problèmes d'in...
peer reviewedCet article décrit l'algorithme BOP (de l'anglais ``Bayesian Optimistic Planning''), un...
Traditionnellement, les travaux de recherche en décision séquentielle dans l'incertain avec observab...
National audienceLa résolution parallèle efficace de simulations numériques dont les coûts de calcul...
International audienceNous étudions la tâche de l'approche entre deux agents mobiles ayant la même p...
National audienceNous nous intéressons au problème consistant à trouver une politique jointe optimal...
National audienceNous proposons une approche heuristique pour calculer une politique approchée d'un ...
National audienceDans cet article, nous nous intéressons à un problème d'apprentissage actif consist...
National audienceLes difficultés rencontrées dans les problèmes de décision séquentielle dans l'ince...
Patrouiller implique habituellement une équipe d'agents dont le but consiste à visiter aussi fréquem...
International audiencePour beaucoup d'applications réelles nécessitant une prise de déci-sion séquen...
National audienceEn apprentissage par renforcement, LSTD est l'un des algorithmes d'approximation de...
National audienceNous considérons des algorithmes pour apprendre des Mélanges bootstrap d'Arbres d...
National audienceLa résolution de problèmes à états et actions continus par l'optimisation de politi...
Nous présentons ici MAA*, le premier algorithme de recherche heuristique à la fois complet et optima...
L'optimisation multidisciplinaire fait référence à la conception et l'optimisation de problèmes d'in...
peer reviewedCet article décrit l'algorithme BOP (de l'anglais ``Bayesian Optimistic Planning''), un...
Traditionnellement, les travaux de recherche en décision séquentielle dans l'incertain avec observab...
National audienceLa résolution parallèle efficace de simulations numériques dont les coûts de calcul...
International audienceNous étudions la tâche de l'approche entre deux agents mobiles ayant la même p...