要約
最近、3D 点群分類に Transformer を使用する試みがいくつかあります。
計算を減らすために、ほとんどの既存の方法は局所的な空間的注意に焦点を当てていますが、その内容を無視し、離れているが関連するポイント間の関係を確立できません。
局所的な空間的注意の制限を克服するために、PointConT と呼ばれるポイント コンテンツ ベースの Transformer アーキテクチャを提案します。
特徴空間 (コンテンツ ベース) 内のポイントの局所性を活用し、類似した特徴を持つサンプリングされたポイントを同じクラスにクラスター化し、各クラス内の自己注意を計算します。
依存関係と計算の複雑さ。
さらに、点群分類用のインセプション機能アグリゲーターを導入します。これは、並列構造を使用して、各ブランチの高頻度および低頻度の情報を個別に集約します。
広範な実験により、PointConT モデルが点群の形状分類で驚くべきパフォーマンスを達成することが示されています。
特に、我々の方法は、ScanObjectNN の最も難しい設定で 90.3% のトップ 1 精度を示します。
この論文のソース コードは、https://github.com/yahuiliu99/PointConT で入手できます。
要約(オリジナル)
Recently, there have been some attempts of Transformer in 3D point cloud classification. In order to reduce computations, most existing methods focus on local spatial attention, but ignore their content and fail to establish relationships between distant but relevant points. To overcome the limitation of local spatial attention, we propose a point content-based Transformer architecture, called PointConT for short. It exploits the locality of points in the feature space (content-based), which clusters the sampled points with similar features into the same class and computes the self-attention within each class, thus enabling an effective trade-off between capturing long-range dependencies and computational complexity. We further introduce an Inception feature aggregator for point cloud classification, which uses parallel structures to aggregate high-frequency and low-frequency information in each branch separately. Extensive experiments show that our PointConT model achieves a remarkable performance on point cloud shape classification. Especially, our method exhibits 90.3% Top-1 accuracy on the hardest setting of ScanObjectNN. Source code of this paper is available at https://github.com/yahuiliu99/PointConT.
arxiv情報
著者 | Yahui Liu,Bin Tian,Yisheng Lv,Lingxi Li,Feiyue Wang |
発行日 | 2023-03-08 14:11:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google