要約
さまざまな環境でナビゲーション機能を学習することは、長い間、意思決定における大きな課題の 1 つでした。
この研究では、与えられた抽象的な $2$-D のトップダウン マップを使用したゼロショット ナビゲーション能力に焦点を当てます。
人間が紙の地図を読んでナビゲーションするのと同じように、エージェントは一連のトレーニング マップでナビゲーションを学習した後、新しいレイアウトでナビゲーションするときに地図を画像として読み取ります。
我々は、このマルチタスク学習問題に対してモデルベースの強化学習アプローチを提案します。このアプローチでは、トップダウン マップを入力として受け取り、遷移ネットワークの重みを予測するハイパーモデルを共同学習します。
DeepMind Lab 環境を使用し、生成されたマップを使用してレイアウトをカスタマイズします。
私たちの方法は、ゼロショットで新しい環境によりよく適応でき、ノイズに対してより堅牢です。
要約(オリジナル)
Learning navigation capabilities in different environments has long been one of the major challenges in decision-making. In this work, we focus on zero-shot navigation ability using given abstract $2$-D top-down maps. Like human navigation by reading a paper map, the agent reads the map as an image when navigating in a novel layout, after learning to navigate on a set of training maps. We propose a model-based reinforcement learning approach for this multi-task learning problem, where it jointly learns a hypermodel that takes top-down maps as input and predicts the weights of the transition network. We use the DeepMind Lab environment and customize layouts using generated maps. Our method can adapt better to novel environments in zero-shot and is more robust to noise.
arxiv情報
著者 | Linfeng Zhao,Lawson L. S. Wong |
発行日 | 2024-12-16 17:51:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google