Active Implicit Object Reconstruction using Uncertainty-guided Next-Best-View Optimization

要約

自律移動ロボットにとって、物体再構成時にセンサービューを能動的に計画することは極めて重要である。効果的な方法は、精度と効率のバランスを取ることができるはずである。本論文では、新たな暗黙的表現と能動的再構成タスクのシームレスな統合を提案する。我々は、ジオメトリプロキシとして暗黙的な占有フィールドを構築する。学習中、事前のオブジェクトのバウンディングボックスを補助情報として利用し、きれいで詳細な再構成を生成する。ビューの不確実性を評価するために、ビュー情報利得の尺度として、再構成された占有確率場からエントロピーを直接抽出するサンプリングベースのアプローチを採用する。これにより、不確実性マップや学習を追加する必要がなくなる。候補の有限集合内でビューの不確実性を比較するこれまでの手法とは異なり、我々は連続多様体上の次善ビュー(NBV)を見つけることを目的とする。暗黙的表現の微分可能性を利用し、NBVは勾配降下を用いてビューの不確実性を最大化することで直接最適化できる。これにより、本手法の様々なシナリオへの適応性が大幅に向上する。シミュレーションと実世界の実験により、我々のアプローチが能動的再構成タスクにおける再構成精度とビュープランニングの効率を効果的に向上させることが実証された。提案システムはhttps://github.com/HITSZ-NRSL/ActiveImplicitRecon.git。

要約(オリジナル)

Actively planning sensor views during object reconstruction is crucial for autonomous mobile robots. An effective method should be able to strike a balance between accuracy and efficiency. In this paper, we propose a seamless integration of the emerging implicit representation with the active reconstruction task. We build an implicit occupancy field as our geometry proxy. While training, the prior object bounding box is utilized as auxiliary information to generate clean and detailed reconstructions. To evaluate view uncertainty, we employ a sampling-based approach that directly extracts entropy from the reconstructed occupancy probability field as our measure of view information gain. This eliminates the need for additional uncertainty maps or learning. Unlike previous methods that compare view uncertainty within a finite set of candidates, we aim to find the next-best-view (NBV) on a continuous manifold. Leveraging the differentiability of the implicit representation, the NBV can be optimized directly by maximizing the view uncertainty using gradient descent. It significantly enhances the method’s adaptability to different scenarios. Simulation and real-world experiments demonstrate that our approach effectively improves reconstruction accuracy and efficiency of view planning in active reconstruction tasks. The proposed system will open source at https://github.com/HITSZ-NRSL/ActiveImplicitRecon.git.

arxiv情報

著者 Dongyu Yan,Jianheng Liu,Fengyu Quan,Haoyao Chen,Mengmeng Fu
発行日 2023-08-03 07:39:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク