要約
点群解析用の既存の Transformer ベースのモデルは 2 次の複雑さの問題を抱えており、点群の解像度が損なわれ、情報が失われます。
対照的に、状態空間モデル (SSM) に基づいて新しく提案された Mamba モデルは、線形の複雑さのみで複数の領域で Transformer を上回ります。
ただし、Mamba をそのまま導入しても、点群タスクでは満足のいくパフォーマンスが得られません。
この研究では、点群学習に合わせて調整された状態空間モデル Mamba3D を紹介し、局所特徴抽出を強化し、優れたパフォーマンス、高効率、スケーラビリティの可能性を実現します。
具体的には、局所的な幾何学的特徴を抽出するための、シンプルかつ効果的な Local Norm Pooling (LNP) ブロックを提案します。
さらに、より優れたグローバル機能を取得するために、トークン フォワード SSM と機能チャネルで動作する新しいバックワード SSM の両方を備えた双方向 SSM(bi-SSM)を導入します。
広範な実験結果は、Mamba3D が Transformer ベースの対応物を上回り、事前トレーニングの有無にかかわらず、複数のタスクを同時に実行できることを示しています。
特に、Mamba3D は、ScanObjectNN で 92.6% (ゼロからのトレーニング)、ModelNet40 分類タスクで 95.1% (シングルモーダル事前トレーニング) の全体精度を含む複数の SoTA を、線形の複雑さだけで達成しています。
要約(オリジナル)
Existing Transformer-based models for point cloud analysis suffer from quadratic complexity, leading to compromised point cloud resolution and information loss. In contrast, the newly proposed Mamba model, based on state space models (SSM), outperforms Transformer in multiple areas with only linear complexity. However, the straightforward adoption of Mamba does not achieve satisfactory performance on point cloud tasks. In this work, we present Mamba3D, a state space model tailored for point cloud learning to enhance local feature extraction, achieving superior performance, high efficiency, and scalability potential. Specifically, we propose a simple yet effective Local Norm Pooling (LNP) block to extract local geometric features. Additionally, to obtain better global features, we introduce a bidirectional SSM (bi-SSM) with both a token forward SSM and a novel backward SSM that operates on the feature channel. Extensive experimental results show that Mamba3D surpasses Transformer-based counterparts and concurrent works in multiple tasks, with or without pre-training. Notably, Mamba3D achieves multiple SoTA, including an overall accuracy of 92.6% (train from scratch) on the ScanObjectNN and 95.1% (with single-modal pre-training) on the ModelNet40 classification task, with only linear complexity.
arxiv情報
著者 | Xu Han,Yuan Tang,Zhaoxuan Wang,Xianzhi Li |
発行日 | 2024-04-23 12:20:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google