要約
シミュレーション環境における強化学習 (RL) アルゴリズムは大きな成功を収めていますが、RL を現実世界のアプリケーションに適用するには、依然として多くの課題に直面しています。
主な懸念事項は安全性、言い換えれば制約の満足度です。
状態に関する制約は、現実世界のアプリケーションで最も一般的な制約の 1 つであり、Safe RL では最も困難な制約の 1 つです。
状態ごとの制約を強制することは、自動運転やロボット操作などの多くの困難なタスクにとって必要かつ不可欠です。
このペーパーでは、RL の状態に関する制約に対処する既存のアプローチの包括的なレビューを提供します。
状態ごとの制約付きマルコフ決定プロセス (SCMDP) の枠組みに基づいて、(i) 安全性の保証とスケーラビリティ、(ii) 安全性と報酬のパフォーマンス、および
(iii) 収束後および訓練中の安全。
また、現在の方法の限界を要約し、将来の可能性のある方向性についても説明します。
要約(オリジナル)
Despite the tremendous success of Reinforcement Learning (RL) algorithms in simulation environments, applying RL to real-world applications still faces many challenges. A major concern is safety, in another word, constraint satisfaction. State-wise constraints are one of the most common constraints in real-world applications and one of the most challenging constraints in Safe RL. Enforcing state-wise constraints is necessary and essential to many challenging tasks such as autonomous driving, robot manipulation. This paper provides a comprehensive review of existing approaches that address state-wise constraints in RL. Under the framework of State-wise Constrained Markov Decision Process (SCMDP), we will discuss the connections, differences, and trade-offs of existing approaches in terms of (i) safety guarantee and scalability, (ii) safety and reward performance, and (iii) safety after convergence and during training. We also summarize limitations of current methods and discuss potential future directions.
arxiv情報
著者 | Weiye Zhao,Tairan He,Rui Chen,Tianhao Wei,Changliu Liu |
発行日 | 2023-05-13 06:22:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google