要約
私たちは、事前に定義された時間によって探索が制限される、これまで見たことのない環境における時間制限のあるロボット探索の問題を検討します。
学習拡張モデルベースの計画を使用した新しい探索アプローチを提案します。
現在のマップ上のフロンティアに関連付けられた一連のサブ目標を生成し、これらのサブ目標を使用した探索のためのベルマン方程式を導出します。
屋内シーンの視覚センシングとセマンティック マッピングの進歩は、ディープ畳み込みニューラル ネットワークをトレーニングするために活用され、各フロンティアに関連するプロパティ、つまりフロンティアを超えた予想される未観測エリアと、その探索に必要な予想されるタイムステップ (離散化されたアクション) を推定します。
提案されたモデルベースのプランナーは、時間が許せばシーン全体を探索することが保証されています。
ハビタット シミュレーターを使用して、大規模な擬似現実的な屋内データセット (Matterport3D) に対するアプローチを徹底的に評価します。
私たちのアプローチを、古典的およびより最近の RL ベースの探索手法と比較します。
私たちのアプローチは、カバレッジの点で貪欲戦略を 2.1% 上回り、RL ベースの探索手法を 8.4% 上回っています。
要約(オリジナル)
We consider the problem of time-limited robotic exploration in previously unseen environments where exploration is limited by a predefined amount of time. We propose a novel exploration approach using learning-augmented model-based planning. We generate a set of subgoals associated with frontiers on the current map and derive a Bellman Equation for exploration with these subgoals. Visual sensing and advances in semantic mapping of indoor scenes are exploited for training a deep convolutional neural network to estimate properties associated with each frontier: the expected unobserved area beyond the frontier and the expected timesteps (discretized actions) required to explore it. The proposed model-based planner is guaranteed to explore the whole scene if time permits. We thoroughly evaluate our approach on a large-scale pseudo-realistic indoor dataset (Matterport3D) with the Habitat simulator. We compare our approach with classical and more recent RL-based exploration methods. Our approach surpasses the greedy strategies by 2.1% and the RL-based exploration methods by 8.4% in terms of coverage.
arxiv情報
著者 | Yimeng Li,Arnab Debnath,Gregory Stein,Jana Kosecka |
発行日 | 2023-08-09 16:50:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google