Direct Superpoints Matching for Robust Point Cloud Registration

要約

ディープ ニューラル ネットワークは、ダウンサンプリングされたスーパーポイントに高度に識別可能な特徴表現を与えます。
以前の主要な点群登録アプローチは、最初のステップとしてシンクホーン アルゴリズムを使用するなど、これらの特徴表現と一致します。
その後、通常、異常値をフィルタリングするための後処理の改良として RANSAC のような方法が採用されます。
これらのアプローチは、RANSAC の反復的な性質により計算量が多くなる傾向があり、さまざまな実際のアプリケーションに適応するには慎重なパラメーターの調整が必要です。
この論文では、スーパーポイント特徴マッチングにおけるマッチング戦略の役割を強調します。
私たちは、グローバル ソフトマックス レイヤーをエンドツーエンド方式で活用することにより、スーパーポイントを直接照合する簡単で効果的なアプローチを提案します。
これらの一致したスーパーポイントは、ソース点群とターゲット点群の間の SE(3) 変換を推定するのに役立ちます。
特に、私たちのアプローチは各対応の重みとしてソフトマックス確率を採用しているため、変換行列をフィッティングするときに外れ値を拒否し、残りの内側値をさらに重み付けできます。これには後処理の調整は必要ありません。
さらに、私たちのアプローチは、特徴表現の学習、スーパーポイントのマッチング、変換推定などのさまざまなコンポーネントの共同最適化を可能にし、登録パフォーマンスの向上につながります。
ModelNet、3DMatch、KITTI などの標準ベンチマークの実験結果により、当社のアプローチの有効性が検証され、最先端の方法と同等またはそれ以上の精度が得られます。
コードとモデルの重みは公開されます。

要約(オリジナル)

Deep neural networks endow the downsampled superpoints with highly discriminative feature representations. Previous dominant point cloud registration approaches match these feature representations, \eg, using the Sinkhorn algorithm as the first step. A RANSAC-like method is then usually adopted as a post-processing refinement to filter the outliers. These approaches tend to be computationally intensive due to the iterative nature of RANSAC and require careful parameter tuning to adapt to various practical applications. In this paper, we emphasize the role of matching strategy in superpoint feature matching. We propose a straightforward and effective approach to directly match superpoints by leveraging a global softmax layer in an end-to-end fashion. These matched superpoints are instrumental in estimating the SE(3) transformation between the source and target point clouds. Notably, our approach employs softmax probabilities as weights for each correspondence, allowing us to reject the outliers and further weigh the rest inliers when fitting the transformation matrix, which does not need any post-processing refinement. Moreover, our approach enables joint optimization of different components, including feature representation learning, superpoints matching, and transformation estimation, leading to better registration performance. Experimental results on the standard benchmarks, including ModelNet, 3DMatch, and KITTI validate the effectiveness of our approach, where we obtain comparable or even better accuracy than state-of-the-art methods. Our code and model weights will be publicly available.

arxiv情報

著者 Aniket Gupta,Yiming Xie,Hanumant Singh,Huaizu Jiang
発行日 2023-09-29 17:26:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク