要約
地上視点の物体変化検出において、最近登場したマップレスナビゲーションは、遠くに検出された物体までロボットをナビゲートし、その変化状態(出現/消滅/変化なし)を高解像度画像で識別する手段として大きな可能性を秘めています。
ただし、すべての遠くのオブジェクトにナビゲートするという総当り的な単純なアクション戦略には、オブジェクトの数に比例した膨大なセンス/計画/アクションのコストが必要です。
本研究では、「地図を使わないナビゲーションではどの遠方の物体を優先すべきか?」という新たな問題を研究します。
そして研究開発サイクルをスピードアップするために、実装と拡張が容易な高度に単純化されたアプローチを提案します。
私たちのアプローチでは、マップベース ナビゲーションと呼ばれる新しいレイヤーがマップレス ナビゲーションの上に追加され、階層プランナーを構成します。
まず、$N$ ビュー シーケンスで構成されるデータセットが、マップレス ナビゲーションを介して実際のロボットによって取得されます。
次に、「ロボットは次にどのビューシーケンスを選択するべきか?」という単純な行動計画の問題をシミュレートする環境シミュレーターを構築しました。
そして、「プレイヤーは次にどの腕を選択すべきか?」という多腕バンディット問題へのアナロジーからインスピレーションを受けてソルバーが構築されました。
最後に、意味的に自明ではないシナリオ「本棚としてのソファ」を使用して、提案されたフレームワークの有効性が検証されました。
要約(オリジナル)
In ground-view object change detection, the recently emerging map-less navigation has great potential as a means of navigating a robot to distantly detected objects and identifying their changing states (appear/disappear/no-change) with high resolution imagery. However, the brute-force naive action strategy of navigating to every distant object requires huge sense/plan/action costs proportional to the number of objects. In this work, we study this new problem of “Which distant objects should be prioritized for map-less navigation?’ and in order to speed up the R{\&}D cycle, propose a highly-simplified approach that is easy to implement and easy to extend. In our approach, a new layer called map-based navigation is added on top of the map-less navigation, which constitutes a hierarchical planner. First, a dataset consisting of $N$ view sequences is acquired by a real robot via map-less navigation. Then, an environment simulator was built to simulate a simple action planning problem: “Which view sequence should the robot select next?’. Then, a solver was built inspired by the analogy to the multi-armed bandit problem: “Which arm should the player select next?’. Finally, the effectiveness of the proposed framework was verified using the semantically non-trivial scenario “sofa as bookshelf’.
arxiv情報
著者 | Kouki Terashima,Kanji Tanaka,Ryogo Yamamoto,Jonathan Tay Yu Liang |
発行日 | 2023-07-26 11:06:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google