Backward Learning for Goal-Conditioned Policies

要約

強化学習では報酬なしでポリシーを学習できますか?
目標状態に到達しようとするだけで政策を学ぶことができるでしょうか?
我々は、最初に時間を遡る世界モデルを学習し、次にゴールに到達する後方軌道を生成し、第三に最短経路探索アルゴリズムを使用してそれらのシーケンスを改善し、最後にニューラルネットワークポリシーを訓練するという多段階の手順を提案することで、これらの質問に積極的に答えます。
模倣学習。
我々は、観測結果が $64\×64$ ピクセルの鳥瞰画像である決定論的迷路環境でメソッドを評価し、それが一貫していくつかの目標に到達することを示すことができます。

要約(オリジナル)

Can we learn policies in reinforcement learning without rewards? Can we learn a policy just by trying to reach a goal state? We answer these questions positively by proposing a multi-step procedure that first learns a world model that goes backward in time, secondly generates goal-reaching backward trajectories, thirdly improves those sequences using shortest path finding algorithms, and finally trains a neural network policy by imitation learning. We evaluate our method on a deterministic maze environment where the observations are $64\times 64$ pixel bird’s eye images and can show that it consistently reaches several goals.

arxiv情報

著者 Marc Höftmann,Jan Robine,Stefan Harmeling
発行日 2024-04-15 08:45:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク