Apprentissage par renforcement pour les processus décisionnels de Markov partiellement observés. - INRIA - Institut National de Recherche en Informatique et en Automatique Accéder directement au contenu
Article Dans Une Revue Revue des Sciences et Technologies de l'Information - Série RIA : Revue d'Intelligence Artificielle Année : 2003

Apprentissage par renforcement pour les processus décisionnels de Markov partiellement observés.

Résumé

Nous présentons un nouvel algorithme qui contribue à étendre le formalisme de l'Apprentissage par Renforcement (RL) aux Processus Décisionnels Markoviens Partiellement Observés (POMDP). L'idée principale de notre méthode est de construire une extension d'état, appelée observable exhaustif, qui permet de définir un nouveau processus qui est alors markovien. Nous démontrons que résoudre ce nouveau processus, auquel on peut appliquer les techniques classiques de RL, apporte une solution optimale au POMDP original. Nous appliquons l'algorithme déduit de ce résultat sur plusieurs exemples pour en tester la validité et la robustesse. || We present a new algorithm that extends the Reinforcement Learning framework to Partially Observed Markov Decision Processes (POMDP). The main idea of our method is to build a state extension, called exhaustive observable, which allow us to define a next
Fichier non déposé

Dates et versions

inria-00099563 , version 1 (26-09-2006)

Identifiants

  • HAL Id : inria-00099563 , version 1

Citer

Alain Dutech, Manuel Samuelides. Apprentissage par renforcement pour les processus décisionnels de Markov partiellement observés.. Revue des Sciences et Technologies de l'Information - Série RIA : Revue d'Intelligence Artificielle, 2003, 17 (4), pp.559-589. ⟨inria-00099563⟩
332 Consultations
1 Téléchargements

Partager

Gmail Facebook X LinkedIn More