Pre-training Point Cloud Compact Model with Partial-aware Reconstruction

要約

マスク ポイント モデリング (MPM) に基づく事前トレーニングされた点群モデルは、さまざまなタスクにわたって大幅な改善を示しました。
しかし、2 つの欠点がその実用化を妨げています。
まず、マスクされたパッチをデコーダに位置的に埋め込むと、その中心座標が漏洩し、3D 表現が制限されてしまいます。
第 2 に、既存の MPM 手法のモデル サイズが大きすぎるため、デバイスに対する要求が高くなります。
これらに対処するために、Point-CPR という名前の部分認識 \textbf{R}econstruction を使用して点群コンパクト モデルを事前トレーニングすることを提案します。
具体的には、デコーダでは、バニラのマスクされたトークンを、ランダムにマスクされたクエリとして位置埋め込みと結合し、各デコーダ層の前に部分認識予測モジュールを導入して、マスクされていない部分から予測します。
これにより、デコーダがマスクされたパッチの中心座標とその再構築された座標の間にショートカットを作成することが防止され、モデルの堅牢性が向上します。
また、ローカル アグリゲーションと MLP で構成されるコンパクトなエンコーダを考案し、既存の Transformer ベースのエンコーダと比較してパラメータと計算要件を削減します。
広範な実験により、私たちのモデルがさまざまなタスクにわたって強力なパフォーマンスを示し、特に主要な MPM ベースのモデル PointGPT-B をわずか 2% のパラメータで上回っていることが実証されました。

要約(オリジナル)

The pre-trained point cloud model based on Masked Point Modeling (MPM) has exhibited substantial improvements across various tasks. However, two drawbacks hinder their practical application. Firstly, the positional embedding of masked patches in the decoder results in the leakage of their central coordinates, leading to limited 3D representations. Secondly, the excessive model size of existing MPM methods results in higher demands for devices. To address these, we propose to pre-train Point cloud Compact Model with Partial-aware \textbf{R}econstruction, named Point-CPR. Specifically, in the decoder, we couple the vanilla masked tokens with their positional embeddings as randomly masked queries and introduce a partial-aware prediction module before each decoder layer to predict them from the unmasked partial. It prevents the decoder from creating a shortcut between the central coordinates of masked patches and their reconstructed coordinates, enhancing the robustness of models. We also devise a compact encoder composed of local aggregation and MLPs, reducing the parameters and computational requirements compared to existing Transformer-based encoders. Extensive experiments demonstrate that our model exhibits strong performance across various tasks, especially surpassing the leading MPM-based model PointGPT-B with only 2% of its parameters.

arxiv情報

著者 Yaohua Zha,Yanzi Wang,Tao Dai,Shu-Tao Xia
発行日 2024-07-12 15:18:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク