要約
この論文では、エントロピー正則化を伴う無限の時間軸にわたる割引線形二次制御 (LQC) 問題のクラスに対して、正則化ポリシー勾配 (RPG) と反復ポリシー最適化 (IPO) という 2 つの新しいポリシー学習手法を提案および分析します。
正確なポリシー評価にアクセスできると仮定すると、提案された両方のアプローチは、正規化された LQC の最適なポリシーを見つける際に線形に収束することが証明されています。
さらに、IPO 手法は、最適なポリシーを中心とする局所領域に入ると、超線形の収束率を達成できます。
最後に、既知の環境での RL 問題に対する最適なポリシーが初期ポリシーとして未知の環境での RL 問題に適切に転送される場合、2 つの環境が十分に近い場合、IPO 手法は超線形収束速度を可能にすることが示されています。
。
これらの提案されたアルゴリズムの性能は数値例によって裏付けられています。
要約(オリジナル)
This paper proposes and analyzes two new policy learning methods: regularized policy gradient (RPG) and iterative policy optimization (IPO), for a class of discounted linear-quadratic control (LQC) problems over an infinite time horizon with entropy regularization. Assuming access to the exact policy evaluation, both proposed approaches are proven to converge linearly in finding optimal policies of the regularized LQC. Moreover, the IPO method can achieve a super-linear convergence rate once it enters a local region around the optimal policy. Finally, when the optimal policy for an RL problem with a known environment is appropriately transferred as the initial policy to an RL problem with an unknown environment, the IPO method is shown to enable a super-linear convergence rate if the two environments are sufficiently close. Performances of these proposed algorithms are supported by numerical examples.
arxiv情報
| 著者 | Xin Guo,Xinyu Li,Renyuan Xu |
| 発行日 | 2023-12-11 18:32:04+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google