Beyond Non-Expert Demonstrations: Outcome-Driven Action Constraint for Offline Reinforcement Learning

要約

現実的なデータ、特に最適下の行動ポリシーを通じて収集された非専門家データを使用して、オフライン強化学習の課題に対処します。
このような状況では、学習ポリシーは、オフラインデータから非専門家(悪い)デモンストレーションに対処するのに十分な柔軟性を維持しながら、\ textIT {Distribution Shift}を管理するのに十分安全でなければなりません。
結果がオフラインデータに基づいたアクションのみに依存するのではなく、アクションのみに依存するのではなく、その結果が安全要件を満たしているかどうかに応じてアクションを評価することにより、{\ it Distribution Shift}を処理するために開発されました。
改善された「軌道ステッチ」のための目に見えない遷移は、現実的な非専門家データから学習するエージェントの能力を高めます。

要約(オリジナル)

We address the challenge of offline reinforcement learning using realistic data, specifically non-expert data collected through sub-optimal behavior policies. Under such circumstance, the learned policy must be safe enough to manage \textit{distribution shift} while maintaining sufficient flexibility to deal with non-expert (bad) demonstrations from offline data.To tackle this issue, we introduce a novel method called Outcome-Driven Action Flexibility (ODAF), which seeks to reduce reliance on the empirical action distribution of the behavior policy, hence reducing the negative impact of those bad demonstrations.To be specific, a new conservative reward mechanism is developed to deal with {\it distribution shift} by evaluating actions according to whether their outcomes meet safety requirements – remaining within the state support area, rather than solely depending on the actions’ likelihood based on offline data.Besides theoretical justification, we provide empirical evidence on widely used MuJoCo and various maze benchmarks, demonstrating that our ODAF method, implemented using uncertainty quantification techniques, effectively tolerates unseen transitions for improved ‘trajectory stitching,’ while enhancing the agent’s ability to learn from realistic non-expert data.

arxiv情報

著者 Ke Jiang,Wen Jiang,Yao Li,Xiaoyang Tan
発行日 2025-04-02 13:27:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク