Full Gradient DQN Reinforcement Learning: A Provably Convergent Scheme - INRIA - Institut National de Recherche en Informatique et en Automatique Accéder directement au contenu
Chapitre D'ouvrage Année : 2021

Full Gradient DQN Reinforcement Learning: A Provably Convergent Scheme

Résumé

We analyze the DQN reinforcement learning algorithm as a stochastic approximation scheme using the o.d.e. (for 'ordinary differential equation') approach and point out certain theoretical issues. We then propose a modified scheme called Full Gradient DQN (FG-DQN, for short) that has a sound theoretical basis and compare it with the original scheme on sample problems. We observe a better performance for FG-DQN.
Fichier principal
Vignette du fichier
Full_Gradient_main.pdf (1.29 Mo) Télécharger le fichier
Origine : Fichiers produits par l'(les) auteur(s)

Dates et versions

hal-03462350 , version 1 (01-12-2021)

Identifiants

Citer

Konstantin Avrachenkov, Vivek S Borkar, Harsh P Dolhare, Kishor Patil. Full Gradient DQN Reinforcement Learning: A Provably Convergent Scheme. Alexey Piunovskiy; Yi Zhang. Modern Trends in Controlled Stochastic Processes: Theory and Applications, V.III, 41, Springer International Publishing, pp.192-220, 2021, Emergence, Complexity and Computation, 978-3-030-76928-4. ⟨10.1007/978-3-030-76928-4_10⟩. ⟨hal-03462350⟩
51 Consultations
173 Téléchargements

Altmetric

Partager

Gmail Facebook X LinkedIn More