Bi-PointFlowNet: Bidirectional Learning for Point Cloud Based Scene Flow Estimation

要約

シーン間のポイントごとの動きを抽出するシーンフロー推定は、多くのコンピュータビジョンタスクで重要なタスクになりつつあります。
ただし、既存の推定方法はすべて一方向の特徴のみを利用しており、精度と一般性が制限されています。
この論文は、双方向フロー埋め込み層を使用した新しいシーンフロー推定アーキテクチャを提示します。
提案された双方向層は、順方向と逆方向の両方に沿って特徴を学習し、推定パフォーマンスを向上させます。
さらに、階層的な特徴抽出とワーピングにより、パフォーマンスが向上し、計算のオーバーヘッドが削減されます。
実験結果は、提案されたアーキテクチャが、FlyingThings3DとKITTIの両方のベンチマークで他のアプローチを大幅に上回り、新しい最先端の記録を達成したことを示しています。
コードはhttps://github.com/cwc1260/BiFlowで入手できます。

要約(オリジナル)

Scene flow estimation, which extracts point-wise motion between scenes, is becoming a crucial task in many computer vision tasks. However, all of the existing estimation methods utilize only the unidirectional features, restricting the accuracy and generality. This paper presents a novel scene flow estimation architecture using bidirectional flow embedding layers. The proposed bidirectional layer learns features along both forward and backward directions, enhancing the estimation performance. In addition, hierarchical feature extraction and warping improve the performance and reduce computational overhead. Experimental results show that the proposed architecture achieved a new state-of-the-art record by outperforming other approaches with large margin in both FlyingThings3D and KITTI benchmarks. Codes are available at https://github.com/cwc1260/BiFlow.

arxiv情報

著者 Wencan Cheng,Jong Hwan Ko
発行日 2022-07-15 15:14:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク