PeP: a Point enhanced Painting method for unified point cloud tasks

要約

ポイントエンコーダは点群認識にとって非常に重要です。
モデル パイプライン全体の最初のステップとして、さまざまなソースから機能を追加し、より強力な機能エンコード メカニズムを提供すると、下流のモジュールにより良い入力が提供されます。
私たちの研究では、上記の問題に取り組むための新しい PeP モジュールを提案しました。
PeP には、洗練されたポイント ペイント手法と LM ベースのポイント エンコーダという 2 つの主要な部分が含まれています。
nuScenes と KITTI データセットの実験結果により、PeP の優れたパフォーマンスが検証されました。
この利点により、LIDAR 設定とマルチモーダル設定の両方で、セマンティック セグメンテーションとオブジェクト検出の両方で強力なパフォーマンスが得られます。
特に、当社の PeP モジュールはモデルに依存せず、プラグアンドプレイです。
私たちのコードは間もなく公開される予定です。

要約(オリジナル)

Point encoder is of vital importance for point cloud recognition. As the very beginning step of whole model pipeline, adding features from diverse sources and providing stronger feature encoding mechanism would provide better input for downstream modules. In our work, we proposed a novel PeP module to tackle above issue. PeP contains two main parts, a refined point painting method and a LM-based point encoder. Experiments results on the nuScenes and KITTI datasets validate the superior performance of our PeP. The advantages leads to strong performance on both semantic segmentation and object detection, in both lidar and multi-modal settings. Notably, our PeP module is model agnostic and plug-and-play. Our code will be publicly available soon.

arxiv情報

著者 Zichao Dong,Hang Ji,Xufeng Huang,Weikun Zhang,Xin Zhan,Junbo Chen
発行日 2023-10-11 15:33:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク