EPNet++: Cascade Bi-directional Fusion for Multi-Modal 3D Object Detection

要約

最近では、LiDAR ポイント クラウドとカメラ画像を融合して 3D オブジェクト検出のパフォーマンスと堅牢性を向上させることがますます注目されています。これら 2 つのモダリティは自然に強い補完性を持っているからです。
この論文では、新しい Cascade Bi-directional Fusion~(CB-Fusion) モジュールと Multi-Modal Consistency~(MC) loss を導入することにより、マルチモーダル 3D オブジェクト検出のための EPNet++ を提案します。
より具体的には、提案されたCB-Fusionモジュールは、カスケード双方向相互作用融合方法で画像特徴から吸収された豊富なセマンティック情報でポイント特徴を強化し、より強力で識別可能な特徴表現につながります。
MC 損失は、2 つのモダリティからの予測スコア間の一貫性を明示的に保証し、より包括的で信頼性の高い信頼スコアを取得します。
KITTI、JRDB、および SUN-RGBD データセットに関する実験結果は、最先端の方法に対する EPNet++ の優位性を示しています。
さらに、まばらなシーンで 3D 検出器のパフォーマンスと堅牢性を調査するという、重要ではあるが見過ごされやすい問題を強調します。
広範な実験により、EPNet++ は、非常にまばらな点群の場合に顕著なマージンで既存の SOTA メソッドよりも優れていることが示されています。これは、LiDAR センサーの高価なコストを削減するために利用できる方向性である可能性があります。
コードは https://github.com/happinesslz/EPNetV2 で入手できます。

要約(オリジナル)

Recently, fusing the LiDAR point cloud and camera image to improve the performance and robustness of 3D object detection has received more and more attention, as these two modalities naturally possess strong complementarity. In this paper, we propose EPNet++ for multi-modal 3D object detection by introducing a novel Cascade Bi-directional Fusion~(CB-Fusion) module and a Multi-Modal Consistency~(MC) loss. More concretely, the proposed CB-Fusion module enhances point features with plentiful semantic information absorbed from the image features in a cascade bi-directional interaction fusion manner, leading to more powerful and discriminative feature representations. The MC loss explicitly guarantees the consistency between predicted scores from two modalities to obtain more comprehensive and reliable confidence scores. The experimental results on the KITTI, JRDB and SUN-RGBD datasets demonstrate the superiority of EPNet++ over the state-of-the-art methods. Besides, we emphasize a critical but easily overlooked problem, which is to explore the performance and robustness of a 3D detector in a sparser scene. Extensive experiments present that EPNet++ outperforms the existing SOTA methods with remarkable margins in highly sparse point cloud cases, which might be an available direction to reduce the expensive cost of LiDAR sensors. Code is available at: https://github.com/happinesslz/EPNetV2.

arxiv情報

著者 Zhe Liu,Tengteng Huang,Bingling Li,Xiwu Chen,Xi Wang,Xiang Bai
発行日 2022-12-20 15:02:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク