DeFlow: Decoder of Scene Flow Network in Autonomous Driving

要約

シーン フロー推定は、特に自動運転のタスクを支援するために、シーン内の点の動きを予測することによって、シーンの 3D モーション フィールドを決定します。
大規模な点群を入力として使用するネットワークの多くは、ボクセル化を使用して、リアルタイム実行用の疑似画像を作成します。
ただし、ボクセル化プロセスにより、ポイント固有の特徴が失われることがよくあります。
これにより、シーン フロー タスクでこれらの特徴を回復する際に課題が生じます。
私たちの論文では、Gated Recurrent Unit (GRU) リファインメントを使用して、ボクセルベースの特徴からポイント特徴への移行を可能にする DeFlow を紹介します。
シーン フロー推定のパフォーマンスをさらに向上させるために、静的ポイントと動的ポイントの間のデータの不均衡を考慮した新しい損失関数を定式化します。
Argoverse 2 シーン フロー タスクの評価では、DeFlow が大規模な点群データで最先端の結果を達成していることが明らかになり、当社のネットワークが他のネットワークと比較してパフォーマンスと効率が優れていることが実証されました。
コードは https://github.com/KTH-RPL/deflow でオープンソース化されています。

要約(オリジナル)

Scene flow estimation determines a scene’s 3D motion field, by predicting the motion of points in the scene, especially for aiding tasks in autonomous driving. Many networks with large-scale point clouds as input use voxelization to create a pseudo-image for real-time running. However, the voxelization process often results in the loss of point-specific features. This gives rise to a challenge in recovering those features for scene flow tasks. Our paper introduces DeFlow which enables a transition from voxel-based features to point features using Gated Recurrent Unit (GRU) refinement. To further enhance scene flow estimation performance, we formulate a novel loss function that accounts for the data imbalance between static and dynamic points. Evaluations on the Argoverse 2 scene flow task reveal that DeFlow achieves state-of-the-art results on large-scale point cloud data, demonstrating that our network has better performance and efficiency compared to others. The code is open-sourced at https://github.com/KTH-RPL/deflow.

arxiv情報

著者 Qingwen Zhang,Yi Yang,Heng Fang,Ruoyu Geng,Patric Jensfelt
発行日 2024-01-29 12:47:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク