International audienceDans cet article, nous nous intéressons à la résolution de problèmes de collecte active d'information exprimés sous la forme de rho-POMDP, une extension des Processus Décisionnels de Markov Partiellement Observables (POMDP) dont la récompense rho dépend de l'état de croyance. Des approches utilisées pour résoudre les POMDP ont déjà été étendues au cadre rho-POMDP lorsque la récompense rho est convexe ou lipschtizienne, mais ces approches ne permettent pas de résoudre toutes les instances de rho-POMDP. Afin de proposer un algorithme en-ligne efficace qui s'affranchit des contraintes sur rho, cet article se concentre sur les méthodes à base de recherche arborescente Monte Carlo et cherche à adapter POMCP à la résolution ...
National audienceDans le cadre du contrôle optimal stochastique, nous proposons une manière modifiée...
National audienceNous proposons une approche heuristique pour calculer une politique approchée d'un ...
National audienceNous nous intéressons au problème consistant à trouver une politique jointe optimal...
International audienceDans cet article, nous nous intéressons à la résolution de problèmes de collec...
National audienceRésoudre optimalement des processus décisionnels de Markov partiellement observable...
National audienceLes difficultés rencontrées dans les problèmes de décision séquentielle dans l'ince...
International audienceLe problème considéré est l'optimisation d'une fonction réelle f à l'aide d'un...
National audienceLes ressources énergétiques devenant de plus en plus limité, il devient crucial d'a...
National audienceNous considérons des algorithmes pour apprendre des Mélanges bootstrap d'Arbres d...
National audienceDans cet article, nous nous intéressons à un problème d'apprentissage actif consist...
National audienceLes processus de décision markoviens partiellement observables (POMDP) modélisent d...
National audienceProbZelus étend le langage synchrone Zelus pour permettre de décrire des modèles pr...
peer reviewedCet article décrit l'algorithme BOP (de l'anglais ``Bayesian Optimistic Planning''), un...
International audienceDans un POMDP classique, une technique unique d'inspection imparfaite est impl...
International audienceCe papier présente un modèle macroéconomique qui associe étroitement théorie d...
National audienceDans le cadre du contrôle optimal stochastique, nous proposons une manière modifiée...
National audienceNous proposons une approche heuristique pour calculer une politique approchée d'un ...
National audienceNous nous intéressons au problème consistant à trouver une politique jointe optimal...
International audienceDans cet article, nous nous intéressons à la résolution de problèmes de collec...
National audienceRésoudre optimalement des processus décisionnels de Markov partiellement observable...
National audienceLes difficultés rencontrées dans les problèmes de décision séquentielle dans l'ince...
International audienceLe problème considéré est l'optimisation d'une fonction réelle f à l'aide d'un...
National audienceLes ressources énergétiques devenant de plus en plus limité, il devient crucial d'a...
National audienceNous considérons des algorithmes pour apprendre des Mélanges bootstrap d'Arbres d...
National audienceDans cet article, nous nous intéressons à un problème d'apprentissage actif consist...
National audienceLes processus de décision markoviens partiellement observables (POMDP) modélisent d...
National audienceProbZelus étend le langage synchrone Zelus pour permettre de décrire des modèles pr...
peer reviewedCet article décrit l'algorithme BOP (de l'anglais ``Bayesian Optimistic Planning''), un...
International audienceDans un POMDP classique, une technique unique d'inspection imparfaite est impl...
International audienceCe papier présente un modèle macroéconomique qui associe étroitement théorie d...
National audienceDans le cadre du contrôle optimal stochastique, nous proposons une manière modifiée...
National audienceNous proposons une approche heuristique pour calculer une politique approchée d'un ...
National audienceNous nous intéressons au problème consistant à trouver une politique jointe optimal...