Toward Computationally Efficient Inverse Reinforcement Learning via Reward Shaping

要約

逆強化学習 (IRL) は計算的に困難であり、一般的なアプローチでは複数の強化学習 (RL) 部分問題の解決が必要です。
この研究は、各 RL 部分問題の計算負荷を軽減するために、潜在的なベースの報酬形成の使用を動機付けます。
この研究は概念実証として機能し、計算効率の高い IRL に向けた将来の開発に刺激を与えることを期待しています。

要約(オリジナル)

Inverse reinforcement learning (IRL) is computationally challenging, with common approaches requiring the solution of multiple reinforcement learning (RL) sub-problems. This work motivates the use of potential-based reward shaping to reduce the computational burden of each RL sub-problem. This work serves as a proof-of-concept and we hope will inspire future developments towards computationally efficient IRL.

arxiv情報

著者 Lauren H. Cooke,Harvey Klyne,Edwin Zhang,Cassidy Laidlaw,Milind Tambe,Finale Doshi-Velez
発行日 2023-12-15 17:50:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク