Active Implicit Reconstruction Using One-Shot View Planning

要約

自律ロボットを用いた能動物体再構成は大きな関心を集めている。
このタスクの主な目標は、限られたオンボード リソースの中で、再構築されるオブジェクトの情報を最大化することです。
以前のビュー計画方法は、明示的な表現に基づく反復パラダイムに依存しているため、非効率的でした。次の構成からなります。(1) 次に最適なビューのみへのパスを計画する。
(2) 表面カバレージの観点から、かなりの数のゲインの低いビューが必要です。
これらの制限に対処するために、暗黙的表現をワンショット ビュー プランニング (OSVP) に統合することを提案します。
私たちのアプローチの背後にある重要なアイデアは、追加のビューで観察するのではなく、暗黙的な表現を使用して欠落している小さな表面積を取得することです。
したがって、最初のまばらな観測から洗練された密な点群が与えられた場合に、一連のビューを直接予測するために、OSVP という名前のディープ ニューラル ネットワークを設計します。
OSVP ネットワークをトレーニングするために、暗黙的表現によって洗練された高密度点群を使用して監視ラベルを生成し、最適化問題をカバーします。
シミュレートされた実験では、私たちの方法が十分な再構成品質を達成し、限られたビューと移動の予算の下でいくつかのベースラインを上回るパフォーマンスを示すことが示されています。
さらに、現実世界のオブジェクト再構成シナリオにおけるアプローチの適用可能性を実証します。

要約(オリジナル)

Active object reconstruction using autonomous robots is gaining great interest. A primary goal in this task is to maximize the information of the object to be reconstructed, given limited on-board resources. Previous view planning methods exhibit inefficiency since they rely on an iterative paradigm based on explicit representations, consisting of (1) planning a path to the next-best view only; and (2) requiring a considerable number of less-gain views in terms of surface coverage. To address these limitations, we propose to integrate implicit representations into the One-Shot View Planning (OSVP). The key idea behind our approach is to use implicit representations to obtain the small missing surface areas instead of observing them with extra views. Therefore, we design a deep neural network, named OSVP, to directly predict a set of views given a dense point cloud refined from an initial sparse observation. To train our OSVP network, we generate supervision labels using dense point clouds refined by implicit representations and set covering optimization problems. Simulated experiments show that our method achieves sufficient reconstruction quality, outperforming several baselines under limited view and movement budgets. We further demonstrate the applicability of our approach in a real-world object reconstruction scenario.

arxiv情報

著者 Hao Hu,Sicong Pan,Liren Jin,Marija Popović,Maren Bennewitz
発行日 2024-02-13 16:12:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク