Active Implicit Object Reconstruction using Uncertainty-guided Next-Best-View Optimization

要約

自律移動ロボットにとって、オブジェクトの再構成中にセンサー ビューを積極的に計画することは非常に重要です。
効果的な方法とは、精度と効率のバランスを取ることができるものでなければなりません。
この論文では、新たな暗黙的表現とアクティブな再構成タスクとのシームレスな統合を提案します。
ジオメトリ プロキシとして暗黙的な占有フィールドを構築します。
トレーニング中に、以前のオブジェクト境界ボックスが補助情報として利用され、クリーンで詳細な再構成が生成されます。
ビューの不確実性を評価するために、ビュー情報ゲインの尺度として再構築された占有確率フィールドからエントロピーを直接抽出するサンプリングベースのアプローチを採用します。
これにより、追加の不確実性マップや学習の必要がなくなります。
有限の候補セット内のビューの不確実性を比較する以前の方法とは異なり、連続多様体上で次善のビュー (NBV) を見つけることを目的としています。
陰的表現の微分可能性を活用し、勾配降下法を使用してビューの不確実性を最大化することで、NBV を直接最適化できます。
これにより、さまざまなシナリオに対するメソッドの適応性が大幅に向上します。
シミュレーションと現実世界の実験は、私たちのアプローチがアクティブな再構成タスクにおける再構成の精度とビュー計画の効率を効果的に向上させることを示しています。
提案されたシステムは、https://github.com/HITSZ-NRSL/ActiveImplicitRecon.git でオープンソースになります。

要約(オリジナル)

Actively planning sensor views during object reconstruction is crucial for autonomous mobile robots. An effective method should be able to strike a balance between accuracy and efficiency. In this paper, we propose a seamless integration of the emerging implicit representation with the active reconstruction task. We build an implicit occupancy field as our geometry proxy. While training, the prior object bounding box is utilized as auxiliary information to generate clean and detailed reconstructions. To evaluate view uncertainty, we employ a sampling-based approach that directly extracts entropy from the reconstructed occupancy probability field as our measure of view information gain. This eliminates the need for additional uncertainty maps or learning. Unlike previous methods that compare view uncertainty within a finite set of candidates, we aim to find the next-best-view (NBV) on a continuous manifold. Leveraging the differentiability of the implicit representation, the NBV can be optimized directly by maximizing the view uncertainty using gradient descent. It significantly enhances the method’s adaptability to different scenarios. Simulation and real-world experiments demonstrate that our approach effectively improves reconstruction accuracy and efficiency of view planning in active reconstruction tasks. The proposed system will open source at https://github.com/HITSZ-NRSL/ActiveImplicitRecon.git.

arxiv情報

著者 Dongyu Yan,Jianheng Liu,Fengyu Quan,Haoyao Chen,Mengmeng Fu
発行日 2024-05-28 07:38:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク