要約
逆強化学習 (IRL) で学習した報酬関数はどの程度一般化されているか?
最大エントロピー目標を最大化する最先端の IRL アルゴリズムが、デモンストレーションに過適合する報酬を学習することを示します。
このような報酬は、デモンストレーションでカバーされていない州に意味のある報酬を提供するのに苦労しています。これは、報酬を使用して新しい状況でポリシーを学習する場合の大きな欠点です。
最大エントロピー IRL アプローチと比較して、より一般化する報酬関数を学習する新しい逆強化学習法である BC-IRL を紹介します。
デモンストレーションで報酬を最大化することを学習する MaxEnt フレームワークとは対照的に、BC-IRL は、新しい報酬でトレーニングされたポリシーがエキスパートのデモンストレーションによりよく一致するように報酬パラメーターを更新します。
BC-IRL は、実例となる単純なタスクと 2 つの連続的なロボット制御タスクでより一般化する報酬を学習し、困難な一般化設定でベースラインの 2 倍以上の成功率を達成することを示します。
要約(オリジナル)
How well do reward functions learned with inverse reinforcement learning (IRL) generalize? We illustrate that state-of-the-art IRL algorithms, which maximize a maximum-entropy objective, learn rewards that overfit to the demonstrations. Such rewards struggle to provide meaningful rewards for states not covered by the demonstrations, a major detriment when using the reward to learn policies in new situations. We introduce BC-IRL a new inverse reinforcement learning method that learns reward functions that generalize better when compared to maximum-entropy IRL approaches. In contrast to the MaxEnt framework, which learns to maximize rewards around demonstrations, BC-IRL updates reward parameters such that the policy trained with the new reward matches the expert demonstrations better. We show that BC-IRL learns rewards that generalize better on an illustrative simple task and two continuous robotic control tasks, achieving over twice the success rate of baselines in challenging generalization settings.
arxiv情報
| 著者 | Andrew Szot,Amy Zhang,Dhruv Batra,Zsolt Kira,Franziska Meier |
| 発行日 | 2023-03-28 17:57:20+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google