Active Implicit Object Reconstruction using Uncertainty-guided Next-Best-View Optimziation

要約

オブジェクトの再構築中にセンサー ビューを積極的に計画することは、自律移動ロボットにとって不可欠です。
このタスクは通常、明示的な不確実性マップから得られる情報を評価することによって実行されます。
既存のアルゴリズムは、一連の事前設定された候補ビューの間でオプションを比較し、それらから次善のビューを選択します。
これらとは対照的に、オブジェクトモデルとして新たな暗黙の表現を取り、それをアクティブな再構築タスクとシームレスに組み合わせます。
観測情報をモデルに完全に統合するために、有効空間と空き領域の両方を考慮したオブジェクトレベルの再構築に特化した監視方法を提案します。
さらに、暗黙的なオブジェクト モデルからビュー情報を直接評価するために、サンプル ベースの不確実性評価方法を導入します。
オブジェクト モデルから直接レイ上のポイントをサンプリングし、ボクセル トラバーサルや追加の情報マップを必要とせずに、暗黙的な関数推論のバリエーションを不確実性メトリックとして使用します。
メトリクスの微分可能性を活用して、不確実性を継続的に最大化することにより、次善のビューを最適化することができます。
これにより、従来使用されていた候補ビューの設定が不要になり、最適ではない結果が得られる可能性があります。
シミュレーションと実世界のシーンでの実験は、私たちの方法がアクティブな再構成タスクの再構成精度とビュー計画効率を効果的に改善することを示しています。
提案されたシステムは、https://github.com/HITSZ-NRSL/ActiveImplicitRecon.git でオープン ソースになる予定です。

要約(オリジナル)

Actively planning sensor views during object reconstruction is essential to autonomous mobile robots. This task is usually performed by evaluating information gain from an explicit uncertainty map. Existing algorithms compare options among a set of preset candidate views and select the next-best-view from them. In contrast to these, we take the emerging implicit representation as the object model and seamlessly combine it with the active reconstruction task. To fully integrate observation information into the model, we propose a supervision method specifically for object-level reconstruction that considers both valid and free space. Additionally, to directly evaluate view information from the implicit object model, we introduce a sample-based uncertainty evaluation method. It samples points on rays directly from the object model and uses variations of implicit function inferences as the uncertainty metrics, with no need for voxel traversal or an additional information map. Leveraging the differentiability of our metrics, it is possible to optimize the next-best-view by maximizing the uncertainty continuously. This does away with the traditionally-used candidate views setting, which may provide sub-optimal results. Experiments in simulations and real-world scenes show that our method effectively improves the reconstruction accuracy and the view-planning efficiency of active reconstruction tasks. The proposed system is going to open source at https://github.com/HITSZ-NRSL/ActiveImplicitRecon.git.

arxiv情報

著者 Dongyu Yan,Jianheng Liu,Fengyu Quan,Haoyao Chen,Mengmeng Fu
発行日 2023-03-29 14:42:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク