要約
既存のビュー プランニング システムは、次善のビュー (NBV) を使用する反復パラダイム、またはセット カバレッジ ビュー プランニング (SCVP) ネットワークに依存するワンショット パイプラインを採用しています。
ただし、これらの方法はいずれも、3D 未知オブジェクトの高品質と高効率の両方の再構成を同時に保証することはできません。
この課題に取り組むために、私たちは重要な仮説を導入します。それは、未知の物体に関するより多くの情報が利用可能になることで、SCVP ネットワークの予測品質が向上するということです。
追加情報を提供するには 2 つの方法があります。(1) NBV から取得した知覚データを活用する方法と、(2) マルチビュー入力の拡張されたデータセットでトレーニングする方法です。
この研究では、提案されているマルチビュー起動 (MA-) SCVP ネットワークを起動する前に、単一の NBV を組み込んだ新しい結合パイプラインを導入します。
MA-SCVP は、ロングテール サンプリング手法によって生成されたマルチビュー データセットでトレーニングされており、不均衡なマルチビュー入力の問題に対処し、ネットワーク パフォーマンスを向上させます。
広範なシミュレーション実験により、当社のシステムは最先端のシステムと比較して、表面被覆率が大幅に向上し、移動コストが大幅に 45% 削減されることが実証されています。
実際の実験により、私たちのシステムの一般化と展開の能力が正当化されます。
要約(オリジナル)
Existing view planning systems either adopt an iterative paradigm using next-best views (NBV) or a one-shot pipeline relying on the set-covering view-planning (SCVP) network. However, neither of these methods can concurrently guarantee both high-quality and high-efficiency reconstruction of 3D unknown objects. To tackle this challenge, we introduce a crucial hypothesis: with the availability of more information about the unknown object, the prediction quality of the SCVP network improves. There are two ways to provide extra information: (1) leveraging perception data obtained from NBVs, and (2) training on an expanded dataset of multiview inputs. In this work, we introduce a novel combined pipeline that incorporates a single NBV before activating the proposed multiview-activated (MA-)SCVP network. The MA-SCVP is trained on a multiview dataset generated by our long-tail sampling method, which addresses the issue of unbalanced multiview inputs and enhances the network performance. Extensive simulated experiments substantiate that our system demonstrates a significant surface coverage increase and a substantial 45% reduction in movement cost compared to state-of-the-art systems. Real-world experiments justify the capability of our system for generalization and deployment.
arxiv情報
著者 | Sicong Pan,Hao Hu,Hui Wei,Nils Dengler,Tobias Zaenker,Murad Dawood,Maren Bennewitz |
発行日 | 2024-10-30 14:08:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google