要約
逆強化学習(IRL)では、エージェントは環境とのやり取りを通じて専門家のデモを再現しようとしています。
伝統的に、IRLは敵対的なゲームとして扱われ、そこでは敵が報酬モデルを検索し、学習者は繰り返されるRL手順を通じて報酬を最適化します。
このゲームを解決するアプローチは、計算上高価であり、安定するのが困難です。
この作業では、直接的なポリシーの最適化によるIRLへの新しいアプローチを提案します。後継者の機能と報酬ベクトルの内部産物としてのリターンの線形因数分解を活用することで、学習者と専門家の特徴のギャップに対するポリシー勾配降下によるIRLアルゴリズムを設計します。
私たちの非逆数法は、報酬機能の学習を必要とせず、既存のアクターcritic RLアルゴリズムでシームレスに解決できます。
驚くべきことに、私たちのアプローチは、専門家のアクションラベルなしで州のみの設定で機能します。これは、動作クローニング(BC)が解決できない設定です。
経験的な結果は、私たちの方法が単一の専門家のデモンストレーションと同じくらい少数から学習し、さまざまな制御タスクでパフォーマンスを向上させることを実証しています。
要約(オリジナル)
In inverse reinforcement learning (IRL), an agent seeks to replicate expert demonstrations through interactions with the environment. Traditionally, IRL is treated as an adversarial game, where an adversary searches over reward models, and a learner optimizes the reward through repeated RL procedures. This game-solving approach is both computationally expensive and difficult to stabilize. In this work, we propose a novel approach to IRL by direct policy optimization: exploiting a linear factorization of the return as the inner product of successor features and a reward vector, we design an IRL algorithm by policy gradient descent on the gap between the learner and expert features. Our non-adversarial method does not require learning a reward function and can be solved seamlessly with existing actor-critic RL algorithms. Remarkably, our approach works in state-only settings without expert action labels, a setting which behavior cloning (BC) cannot solve. Empirical results demonstrate that our method learns from as few as a single expert demonstration and achieves improved performance on various control tasks.
arxiv情報
著者 | Arnav Kumar Jain,Harley Wiltzer,Jesse Farebrother,Irina Rish,Glen Berseth,Sanjiban Choudhury |
発行日 | 2025-04-22 17:59:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google