要約
この論文は、ソース点セットをターゲット点セットに最適に位置合わせするための剛体変換を見つけるという点群登録の研究課題に関するものです。
ディープ ニューラル ネットワークを使用した堅牢な点群登録モデルの学習は強力なパラダイムとして浮上しており、点セットのペアの大域的な幾何学的変換を予測する際に有望なパフォーマンスを提供します。
既存の方法では、最初にエンコーダを活用して潜在的な形状埋め込みを回帰し、次に連結ベースの条件付けを介して形状条件付き変換にデコードします。
ただし、3D 形状の領域ごとに幾何学的構造が異なるため、形状条件付き変換の代わりに領域条件付き変換を使用する方が理にかなっています。
この論文では、自己教師あり学習方式でペアワイズ点集合の変換を予測するための、RAR と呼ばれる \underline{R}egion-\underline{A}ware point cloud \underline{R} 登録を紹介します。
より具体的には、ニューラル ネットワークによってパラメーター化された暗黙的なニューラル領域表現で形成される新しい領域認識デコーダー (RAD) モジュールを開発します。
暗黙的な神経領域表現は、領域ラベルを必要とせずに、自己教師ありの 3D 形状再構成損失を使用して学習されます。
したがって、領域認識デコーダ (RAD) モジュールは、異なる領域の変換と重みをそれぞれ予測する領域認識変換 (RAT) モジュールと領域認識重み付け (RAW) モジュールのトレーニングをガイドします。
ソース点セットからターゲット点セットへのグローバルな幾何学的変換は、領域を意識した変換の重み付けされた融合によって形成されます。
最先端のアプローチと比較して、私たちの実験では、RAR がさまざまなベンチマーク データセット (ModelNet40 など) よりも優れた登録パフォーマンスを達成していることが示されています。
要約(オリジナル)
This paper concerns the research problem of point cloud registration to find the rigid transformation to optimally align the source point set with the target one. Learning robust point cloud registration models with deep neural networks has emerged as a powerful paradigm, offering promising performance in predicting the global geometric transformation for a pair of point sets. Existing methods firstly leverage an encoder to regress a latent shape embedding, which is then decoded into a shape-conditioned transformation via concatenation-based conditioning. However, different regions of a 3D shape vary in their geometric structures which makes it more sense that we have a region-conditioned transformation instead of the shape-conditioned one. In this paper we present a \underline{R}egion-\underline{A}ware point cloud \underline{R}egistration, denoted as RAR, to predict transformation for pairwise point sets in the self-supervised learning fashion. More specifically, we develop a novel region-aware decoder (RAD) module that is formed with an implicit neural region representation parameterized by neural networks. The implicit neural region representation is learned with a self-supervised 3D shape reconstruction loss without the need for region labels. Consequently, the region-aware decoder (RAD) module guides the training of the region-aware transformation (RAT) module and region-aware weight (RAW) module, which predict the transforms and weights for different regions respectively. The global geometric transformation from source point set to target one is then formed by the weighted fusion of region-aware transforms. Compared to the state-of-the-art approaches, our experiments show that our RAR achieves superior registration performance over various benchmark datasets (e.g. ModelNet40).
arxiv情報
著者 | Yu Hao,Yi Fang |
発行日 | 2023-07-19 11:46:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google