A Linear Time and Space Local Point Cloud Geometry Encoder via Vectorized Kernel Mixture (VecKM)

要約

我々は、記述的で計算効率の良い局所点群ジオメトリエンコーダであるVecKMを提案する。VecKMは、局所点群を表現するためにカーネル混合をベクトル化するというユニークなアプローチを活用する。このような表現の記述性は、局所形状の再構成と類似性の保持の能力を検証する2つの定理によって裏付けられている。局所点群をダウンサンプリングする既存のエンコーダとは異なり、VecKMは全ての近傍点を用いて局所形状エンコーディングを構築し、より記述的なエンコーディングを生成する。 さらに、VecKMは計算効率が高く、大規模な点群入力に対してスケーラブルである:VecKMはメモリコストを$(n^2+nKd)$から$(nd+np)$に削減し、主要なランタイムコストを$nK$ MLPの計算から$n$ MLPに削減します。この効率の良さはVecKM独自の因数分解可能な性質によるもので、点を明示的に近傍にグループ化する必要がない。 通常の推定タスクにおいて、VecKMは100倍速い推論速度だけでなく、最高精度と最強の頑健性を示す。分類とセグメンテーションタスクでは、VecKMを前処理モジュールとして統合することで、PointNet、PointNet++、点変換器のベースラインよりも常に優れた性能を達成し、最大10倍高速に動作します。

要約(オリジナル)

We propose VecKM, a local point cloud geometry encoder that is descriptive and efficient to compute. VecKM leverages a unique approach by vectorizing a kernel mixture to represent the local point cloud. Such representation’s descriptiveness is supported by two theorems that validate its ability to reconstruct and preserve the similarity of the local shape. Unlike existing encoders downsampling the local point cloud, VecKM constructs the local geometry encoding using all neighboring points, producing a more descriptive encoding. Moreover, VecKM is efficient to compute and scalable to large point cloud inputs: VecKM reduces the memory cost from $(n^2+nKd)$ to $(nd+np)$; and reduces the major runtime cost from computing $nK$ MLPs to $n$ MLPs, where $n$ is the size of the point cloud, $K$ is the neighborhood size, $d$ is the encoding dimension, and $p$ is a marginal factor. The efficiency is due to VecKM’s unique factorizable property that eliminates the need of explicitly grouping points into neighbors. In the normal estimation task, VecKM demonstrates not only 100x faster inference speed but also highest accuracy and strongest robustness. In classification and segmentation tasks, integrating VecKM as a preprocessing module achieves consistently better performance than the PointNet, PointNet++, and point transformer baselines, and runs consistently faster by up to 10 times.

arxiv情報

著者 Dehao Yuan,Cornelia Fermüller,Tahseen Rabbani,Furong Huang,Yiannis Aloimonos
発行日 2024-05-06 16:49:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CG, cs.CV パーマリンク