AVS-Net: Point Sampling with Adaptive Voxel Size for 3D Point Cloud Analysis

要約

効率的なダウンサンプリングは、特に大規模な 3D シーンの点群学習において重要な役割を果たします。
既存のダウンサンプリング方法は、膨大な計算負荷を必要とするか、またはきめの細かい幾何学的情報を犠牲にします。
本稿では、高精度と高効率を両立した先進のサンプラーを紹介します。
提案された方法は、基礎としてボクセルベースのサンプリングを利用しますが、ボクセルサイズの決定と重要な幾何学的手がかりの保存に関する課題に効果的に対処します。
具体的には、ポイントベースのダウンサンプリング率を参照してボクセルサイズを適応的に調整するボクセル適応モジュールを提案します。
これにより、サンプリング結果がさまざまな 3D オブジェクトやシーンを理解するのに好ましい分布を示すことが保証されます。
さらに、高効率を維持しながらサンプリングと特徴抽出のために任意のボクセルサイズと互換性のあるネットワークを導入します。
私たちの手法は、ShapeNetPart および ScanNet ベンチマークで最先端の精度を達成し、期待できる効率を実現します。
コードは https://github.com/yhc2021/AVS-Net で入手できます。

要約(オリジナル)

Efficient downsampling plays a crucial role in point cloud learning, particularly for large-scale 3D scenes. Existing downsampling methods either require a huge computational burden or sacrifice fine-grained geometric information. This paper presents an advanced sampler that achieves both high accuracy and efficiency. The proposed method utilizes voxel-based sampling as a foundation, but effectively addresses the challenges regarding voxel size determination and the preservation of critical geometric cues. Specifically, we propose a Voxel Adaptation Module that adaptively adjusts voxel sizes with the reference of point-based downsampling ratio. This ensures the sampling results exhibit a favorable distribution for comprehending various 3D objects or scenes. Additionally, we introduce a network compatible with arbitrary voxel sizes for sampling and feature extraction while maintaining high efficiency. Our method achieves state-of-the-art accuracy on the ShapeNetPart and ScanNet benchmarks with promising efficiency. Code will be available at https://github.com/yhc2021/AVS-Net.

arxiv情報

著者 Hongcheng Yang,Dingkang Liang,Dingyuan Zhang,Xingyu Jiang,Zhe Liu,Zhikang Zou,Yingying Zhu
発行日 2024-02-27 14:05:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク