ContrastMotion: Self-supervised Scene Motion Learning for Large-Scale LiDAR Point Clouds

要約

タイトル: ContrastMotion:自己教師シーンモーション学習による大規模LiDARポイントクラウドの自動運転

要約:
– 自己教師学習に基づく、LiDARベースの自動運転のための新しい自己教師モーションエスティメータを提案する。
– 次のフレームの間のピラー間の特徴レベルの一貫性を通じて、ノイズ点と動的なシーンでの視点変更の影響を排除する。
– \ textit {Soft Discriminative Loss}を提案し、より擬似的な教師信号を提供して、対比学習的な強調的で堅牢な特徴を学習する。
– \ textit {Gated Multi-frame Fusion}ブロックを提案し、特徴抽出を強化するために点群フレーム間の有効な補償を自動的に学習する。
– \textit {pillars}の対応確率を特徴距離に基づいて予測する\textit{pillar association}を提案し、さらにシーンモーションを予測する。
– 実験により、ContrastMotionはシーンフローおよびモーション予測タスクの両方で優れた効果があることが示された。
– コードはすぐに利用可能になります。

要約(オリジナル)

In this paper, we propose a novel self-supervised motion estimator for LiDAR-based autonomous driving via BEV representation. Different from usually adopted self-supervised strategies for data-level structure consistency, we predict scene motion via feature-level consistency between pillars in consecutive frames, which can eliminate the effect caused by noise points and view-changing point clouds in dynamic scenes. Specifically, we propose \textit{Soft Discriminative Loss} that provides the network with more pseudo-supervised signals to learn discriminative and robust features in a contrastive learning manner. We also propose \textit{Gated Multi-frame Fusion} block that learns valid compensation between point cloud frames automatically to enhance feature extraction. Finally, \textit{pillar association} is proposed to predict pillar correspondence probabilities based on feature distance, and whereby further predicts scene motion. Extensive experiments show the effectiveness and superiority of our \textbf{ContrastMotion} on both scene flow and motion prediction tasks. The code is available soon.

arxiv情報

著者 Xiangze Jia,Hui Zhou,Xinge Zhu,Yandong Guo,Ji Zhang,Yuexin Ma
発行日 2023-04-25 05:46:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク