Point-Voxel Adaptive Feature Abstraction for Robust Point Cloud Classification

要約

学習ベースの方法で点群分類が大きく進歩しました。
ただし、現実世界のアプリケーションにおける複雑なシーンとセンサーの不正確さにより、点群データはオクルージョン、ノイズ、外れ値などの破損に悩まされます。
この作業では、さまざまな破損の下での堅牢な点群分類のための Point-Voxel ベースの適応型 (PV-Ada) 機能の抽象化を提案します。
具体的には、提案されたフレームワークは、ポイントクラウドを繰り返しボクセル化し、共有ローカルエンコーディングとトランスフォーマーを使用してポイントボクセル機能を抽出します。
次に、分類のために点群特徴をロバストに集約するために、適応最大プーリングが提案されます。
ModelNet-C データセットでの実験は、PV-Ada が最先端の方法よりも優れていることを示しています。
特に、PointCloud-C チャレンジ 2022 の ModelNet-C 分類トラックで $2^{nd}$ 位にランク付けし、全体の精度 (OA) は 0.865 です。
コードは https://github.com/zhulf0804/PV-Ada で入手できます。

要約(オリジナル)

Great progress has been made in point cloud classification with learning-based methods. However, complex scene and sensor inaccuracy in real-world application make point cloud data suffer from corruptions, such as occlusion, noise and outliers. In this work, we propose Point-Voxel based Adaptive (PV-Ada) feature abstraction for robust point cloud classification under various corruptions. Specifically, the proposed framework iteratively voxelize the point cloud and extract point-voxel feature with shared local encoding and Transformer. Then, adaptive max-pooling is proposed to robustly aggregate the point cloud feature for classification. Experiments on ModelNet-C dataset demonstrate that PV-Ada outperforms the state-of-the-art methods. In particular, we rank the $2^{nd}$ place in ModelNet-C classification track of PointCloud-C Challenge 2022, with Overall Accuracy (OA) being 0.865. Code will be available at https://github.com/zhulf0804/PV-Ada.

arxiv情報

著者 Lifa Zhu,Changwei Lin,Cheng Zheng,Ninghua Yang
発行日 2022-10-27 14:49:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク