要約
強化学習エージェントは、環境相互作用を通じて報酬シグナルを最大化しようとします。
人間としての学習プロセスにおける私たちの仕事は、望ましい行動を表現するための報酬関数を設計し、エージェントがそのような行動を迅速に学習できるようにすることです。
しかし、望ましい行動を誘発する適切な報酬関数を設計することは一般に困難であり、ましてやどの報酬が学習を速くするかという問題は言うまでもありません。
この研究では、これらの両方の質問に対処する、段階的報酬と呼ばれる一連の報酬構造を導入します。
我々は、望ましい状態に到達することと望ましくない状態を回避することとして定式化されたタスクにおける報酬設計問題を考慮します。
まず、行動の好みのトレードオフを解決するために、ポリシー空間の厳密な部分順序付けを提案します。
私たちは、悪い状態をより長く回避しながら、より早く、より高い確率で良い状態に到達する政策を好みます。
次に、環境に依存しない報酬関数のクラスである段階的報酬を導入し、それが選好関係に従ってパレート最適な政策を誘導することが保証されることを示します。
最後に、段階的報酬が複数の表形式の深層強化学習アルゴリズムを使用した高速学習につながることを示します。
要約(オリジナル)
Reinforcement-learning agents seek to maximize a reward signal through environmental interactions. As humans, our job in the learning process is to design reward functions to express desired behavior and enable the agent to learn such behavior swiftly. However, designing good reward functions to induce the desired behavior is generally hard, let alone the question of which rewards make learning fast. In this work, we introduce a family of a reward structures we call Tiered Reward that addresses both of these questions. We consider the reward-design problem in tasks formulated as reaching desirable states and avoiding undesirable states. To start, we propose a strict partial ordering of the policy space to resolve trade-offs in behavior preference. We prefer policies that reach the good states faster and with higher probability while avoiding the bad states longer. Next, we introduce Tiered Reward, a class of environment-independent reward functions and show it is guaranteed to induce policies that are Pareto-optimal according to our preference relation. Finally, we demonstrate that Tiered Reward leads to fast learning with multiple tabular and deep reinforcement-learning algorithms.
arxiv情報
著者 | Zhiyuan Zhou,Shreyas Sundara Raman,Henry Sowerby,Michael L. Littman |
発行日 | 2024-08-01 17:47:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google