要約
私たちは、記述的かつ効率的に計算できるローカル点群ジオメトリ エンコーダーである VecKM を提案します。
VecKM は、カーネル混合物をベクトル化してローカル点群を表現するという独自のアプローチを活用しています。
このような表現の記述性は、局所形状の類似性を再構築して保存する能力を検証する 2 つの定理によってサポートされています。
ローカル点群をダウンサンプリングする既存のエンコーダとは異なり、VecKM はすべての隣接点を使用してローカル ジオメトリ エンコードを構築し、より記述的なエンコードを生成します。
さらに、VecKM は計算効率が高く、大規模な点群入力に拡張可能です。VecKM はメモリ コストを $(n^2+nKd)$ から $(nd+np)$ に削減します。
$nK$ MLP の計算から $n$ MLP への主要なランタイム コストが削減されます。ここで、$n$ は点群のサイズ、$K$ は近傍サイズ、$d$ はエンコード次元、$p$ です。
限界要因です。
この効率は、ポイントを近傍に明示的にグループ化する必要をなくす、VecKM の独自の因数分解可能なプロパティによるものです。
通常の推定タスクでは、VecKM は 100 倍速い推論速度だけでなく、最高の精度と最強の堅牢性も実証します。
分類およびセグメンテーション タスクでは、VecKM を前処理モジュールとして統合すると、PointNet、PointNet++、およびポイント トランスフォーマーのベースラインよりも一貫して優れたパフォーマンスが達成され、一貫して最大 10 倍高速に実行されます。
要約(オリジナル)
We propose VecKM, a local point cloud geometry encoder that is descriptive and efficient to compute. VecKM leverages a unique approach by vectorizing a kernel mixture to represent the local point cloud. Such representation’s descriptiveness is supported by two theorems that validate its ability to reconstruct and preserve the similarity of the local shape. Unlike existing encoders downsampling the local point cloud, VecKM constructs the local geometry encoding using all neighboring points, producing a more descriptive encoding. Moreover, VecKM is efficient to compute and scalable to large point cloud inputs: VecKM reduces the memory cost from $(n^2+nKd)$ to $(nd+np)$; and reduces the major runtime cost from computing $nK$ MLPs to $n$ MLPs, where $n$ is the size of the point cloud, $K$ is the neighborhood size, $d$ is the encoding dimension, and $p$ is a marginal factor. The efficiency is due to VecKM’s unique factorizable property that eliminates the need of explicitly grouping points into neighbors. In the normal estimation task, VecKM demonstrates not only 100x faster inference speed but also highest accuracy and strongest robustness. In classification and segmentation tasks, integrating VecKM as a preprocessing module achieves consistently better performance than the PointNet, PointNet++, and point transformer baselines, and runs consistently faster by up to 10 times.
arxiv情報
著者 | Dehao Yuan,Cornelia Fermüller,Tahseen Rabbani,Furong Huang,Yiannis Aloimonos |
発行日 | 2024-05-07 02:21:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google