要約
まばらな点群を処理するために、効率的でありながら展開しやすい 3D バックボーンを設計することは、3D 認識における基本的な問題です。
カスタマイズされたスパース畳み込みと比較して、Transformers のアテンション メカニズムは、長期的な関係を柔軟にモデル化するのにより適切であり、実際のアプリケーションに簡単に展開できます。
ただし、ポイント クラウドのまばらな特性により、まばらなポイントに標準のトランスフォーマーを適用することは自明ではありません。
このホワイト ペーパーでは、屋外の 3D 知覚のためのシングル ストライド ウィンドウ ベースのボクセル トランスフォーマー バックボーンである Dynamic Sparse Voxel Transformer (DSVT) を紹介します。
スパース ポイントを並列で効率的に処理するために、Dynamic Sparse Window Attention を提案します。これは、各ウィンドウ内の一連のローカル領域をそのスパース性に従って分割し、すべての領域の特徴を完全に並列に計算します。
クロスセット接続を可能にするために、連続するセルフアテンション層で 2 つのパーティション構成を交互に切り替える回転セット パーティション戦略を設計します。
効果的なダウンサンプリングをサポートし、幾何学的情報をより適切にエンコードするために、カスタマイズされた CUDA 操作を使用せずに強力で展開しやすい、まばらなポイントでの注意スタイルの 3D プーリング モジュールも提案します。
私たちのモデルは、幅広い 3D 認識タスクで最先端のパフォーマンスを実現します。
さらに重要なことは、DSVT は TensorRT によってリアルタイムの推論速度 (27Hz) で簡単にデプロイできることです。
コードは \url{https://github.com/Haiyang-W/DSVT} で入手できます。
要約(オリジナル)
Designing an efficient yet deployment-friendly 3D backbone to handle sparse point clouds is a fundamental problem in 3D perception. Compared with the customized sparse convolution, the attention mechanism in Transformers is more appropriate for flexibly modeling long-range relationships and is easier to be deployed in real-world applications. However, due to the sparse characteristics of point clouds, it is non-trivial to apply a standard transformer on sparse points. In this paper, we present Dynamic Sparse Voxel Transformer (DSVT), a single-stride window-based voxel Transformer backbone for outdoor 3D perception. In order to efficiently process sparse points in parallel, we propose Dynamic Sparse Window Attention, which partitions a series of local regions in each window according to its sparsity and then computes the features of all regions in a fully parallel manner. To allow the cross-set connection, we design a rotated set partitioning strategy that alternates between two partitioning configurations in consecutive self-attention layers. To support effective downsampling and better encode geometric information, we also propose an attention-style 3D pooling module on sparse points, which is powerful and deployment-friendly without utilizing any customized CUDA operations. Our model achieves state-of-the-art performance with a broad range of 3D perception tasks. More importantly, DSVT can be easily deployed by TensorRT with real-time inference speed (27Hz). Code will be available at \url{https://github.com/Haiyang-W/DSVT}.
arxiv情報
著者 | Haiyang Wang,Chen Shi,Shaoshuai Shi,Meng Lei,Sen Wang,Di He,Bernt Schiele,Liwei Wang |
発行日 | 2023-03-20 16:36:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google