要約
ペアワイズ ポイント クラウド レジストレーションは、2 つのポイント クラウドから適切な対応を見つけることに大きく依存する多くのアプリケーションにとって重要なタスクです。
ただし、入力点群間のオーバーラップが少ないと、登録が失敗しやすくなり、特にオーバーラップしない領域に同様の構造が含まれるシーンで、誤ったオーバーラップや対応の不一致が発生します。
この論文では、ペアワイズ登録とループ閉鎖を実現するために、3D 局所特徴とオーバーラップ推定を共同で学習するための統合鳥瞰図 (BEV) モデルを提示します。
BEV 表現に基づく機能記述は、疎な UNet のようなネットワークによって実行され、3D キーポイントは、2D 位置の検出ヘッドと高さの回帰ヘッドによってそれぞれ抽出されます。
オーバーラップ検出では、入力点群のコンテキスト情報を相互作用させるためにクロスアテンション モジュールが適用され、続いて分類ヘッドがオーバーラップ領域を推定します。
KITTI データセットと Apollo-SouthBay データセットで統合モデルを広範囲に評価します。
実験は、特にオーバーラップが小さいシーンで、オーバーラップ予測に関して、私たちの方法が既存の方法よりも大幅に優れていることを示しています。
位置合わせの精度も、平行移動と回転の誤差に関して、両方のデータセットで最高のパフォーマンスを達成します。
ソースコードは近日公開予定です。
要約(オリジナル)
Pairwise point cloud registration is a critical task for many applications, which heavily depends on finding the right correspondences from the two point clouds. However, the low overlap between the input point clouds makes the registration prone to fail, leading to mistaken overlapping and mismatched correspondences, especially in scenes where non-overlapping regions contain similar structures. In this paper, we present a unified bird’s-eye view (BEV) model for jointly learning of 3D local features and overlap estimation to fulfill the pairwise registration and loop closure. Feature description based on BEV representation is performed by a sparse UNet-like network, and the 3D keypoints are extracted by a detection head for 2D locations and a regression head for heights, respectively. For overlap detection, a cross-attention module is applied for interacting contextual information of the input point clouds, followed by a classification head to estimate the overlapping region. We evaluate our unified model extensively on the KITTI dataset and Apollo-SouthBay dataset. The experiments demonstrate that our method significantly outperforms existing methods on overlap prediction, especially in scenes with small overlaps. The registration precision also achieves top performance on both datasets in terms of translation and rotation errors. Source codes will be available soon.
arxiv情報
著者 | Lin Li,Wendong Ding,Yongkun Wen,Yufei Liang,Yong Liu,Guowei Wan |
発行日 | 2023-02-28 12:01:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google