要約
視点の計画は、十分な範囲を達成するためにオブジェクトやシーンをさまざまな角度から見る必要があるアプリケーションにおいて重要なタスクです。
棚などの限られた空間のマッピングは、オブジェクトが互いに遮蔽し、シーンは正面からしか観察できないため、可能な視点に制限が生じるため、特に困難な作業です。
この論文では、マップ エントロピーの削減を目的とした有望なビューを生成する深層強化学習フレームワークを提案します。
さらに、パイプラインは、遮蔽されたオブジェクトを明らかにし、可視スペースを増やすための適切な低侵襲プッシュ アクションを予測することにより、標準的な視点計画を拡張します。
効率的に更新できる状態表現として 2.5D 占有高さマップを使用して、システムは新しい視点を計画するかプッシュを実行するかを決定します。
実現可能なプッシュを学習するために、ニューラル ネットワークを使用して、人間の専門家から提供されたトレーニング データに基づいてマップ上のプッシュ候補をサンプリングします。
ロボット アームを使用したシミュレーションおよび現実世界の実験結果が示すように、私たちのシステムは、さまざまなベースラインと比較してマッピングされた空間を大幅に増やすことができ、実行されたプッシュ アクションは、オブジェクトの構成をわずかに変更するだけで視点プランナーに大きな利益をもたらします。
要約(オリジナル)
Viewpoint planning is an important task in any application where objects or scenes need to be viewed from different angles to achieve sufficient coverage. The mapping of confined spaces such as shelves is an especially challenging task since objects occlude each other and the scene can only be observed from the front, posing limitations on the possible viewpoints. In this paper, we propose a deep reinforcement learning framework that generates promising views aiming at reducing the map entropy. Additionally, the pipeline extends standard viewpoint planning by predicting adequate minimally invasive push actions to uncover occluded objects and increase the visible space. Using a 2.5D occupancy height map as state representation that can be efficiently updated, our system decides whether to plan a new viewpoint or perform a push. To learn feasible pushes, we use a neural network to sample push candidates on the map based on training data provided by human experts. As simulated and real-world experimental results with a robotic arm show, our system is able to significantly increase the mapped space compared to different baselines, while the executed push actions highly benefit the viewpoint planner with only minor changes to the object configuration.
arxiv情報
著者 | Nils Dengler,Sicong Pan,Vamsi Kalagaturu,Rohit Menon,Murad Dawood,Maren Bennewitz |
発行日 | 2023-07-24 12:32:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google