要約
有限地平線強化学習 (RL) における探索と活用のジレンマを考察します。
状態空間が大きいか連続している場合、従来の表形式のアプローチは実現できず、何らかの形式の関数近似が必須になります。
この論文では、一般的なランダム化最小二乗値反復 (RLSVI) の楽観的に初期化されたバリアントを紹介します。これは、アクション価値関数の最小二乗近似を摂動させることによって探索が誘導されるモデルフリー アルゴリズムです。
マルコフ決定プロセスには低ランクの遷移ダイナミクスがあるという仮定の下で、RLSVI の頻度主義的後悔は $\widetilde O(d^2 H^2 \sqrt{T})$ によって上限が定められることを証明します。ここで $ d $
はフィーチャの次元、$ H $ は水平線、$ T $ は総ステップ数です。
私たちの知る限り、これは関数近似を使用したランダム化探索のための最初の頻度主義的リグレス分析です。
要約(オリジナル)
We consider the exploration-exploitation dilemma in finite-horizon reinforcement learning (RL). When the state space is large or continuous, traditional tabular approaches are unfeasible and some form of function approximation is mandatory. In this paper, we introduce an optimistically-initialized variant of the popular randomized least-squares value iteration (RLSVI), a model-free algorithm where exploration is induced by perturbing the least-squares approximation of the action-value function. Under the assumption that the Markov decision process has low-rank transition dynamics, we prove that the frequentist regret of RLSVI is upper-bounded by $\widetilde O(d^2 H^2 \sqrt{T})$ where $ d $ are the feature dimension, $ H $ is the horizon, and $ T $ is the total number of steps. To the best of our knowledge, this is the first frequentist regret analysis for randomized exploration with function approximation.
arxiv情報
著者 | Andrea Zanette,David Brandfonbrener,Emma Brunskill,Matteo Pirotta,Alessandro Lazaric |
発行日 | 2023-09-08 16:34:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google