Re-Evaluating LiDAR Scene Flow for Autonomous Driving

要約

自己監視型 LiDAR シーン フローの一般的なベンチマーク (ステレオ KITTI および FlyingThings3D) には、非現実的な動的モーション レート、非現実的な対応、および非現実的なサンプリング パターンがあります。
その結果、これらのベンチマークの進歩は誤解を招き、研究者が間違った問題に注目する原因となる可能性があります。
私たちは一連の実世界のデータセット (Argoverse 2.0、Waymo、NuScenes) で一連のトップメソッドを評価し、いくつかの結論を報告します。
まず、stereoKITTI でのパフォーマンスが現実世界のデータでのパフォーマンスと負の相関があることがわかります。
第 2 に、このタスクの重要な要素の 1 つである支配的な自我運動の除去は、テストされたどの方法よりも従来の ICP の方がうまく解決できることがわかりました。
最後に、学習に重点が置かれているにもかかわらず、パフォーマンスの向上のほとんどは、前処理と後処理のステップ (区分的剛体リファインメントとグランド除去) によってもたらされることを示します。
これらの処理ステップと学習不要のテスト時間フローの最適化を組み合わせたベースライン手法を通じて、これを実証します。
このベースラインは、評価されたすべてのメソッドよりも優れています。

要約(オリジナル)

Popular benchmarks for self-supervised LiDAR scene flow (stereoKITTI, and FlyingThings3D) have unrealistic rates of dynamic motion, unrealistic correspondences, and unrealistic sampling patterns. As a result, progress on these benchmarks is misleading and may cause researchers to focus on the wrong problems. We evaluate a suite of top methods on a suite of real-world datasets (Argoverse 2.0, Waymo, and NuScenes) and report several conclusions. First, we find that performance on stereoKITTI is negatively correlated with performance on real-world data. Second, we find that one of this task’s key components — removing the dominant ego-motion — is better solved by classic ICP than any tested method. Finally, we show that despite the emphasis placed on learning, most performance gains are caused by pre- and post-processing steps: piecewise-rigid refinement and ground removal. We demonstrate this through a baseline method that combines these processing steps with a learning-free test-time flow optimization. This baseline outperforms every evaluated method.

arxiv情報

著者 Nathaniel Chodosh,Deva Ramanan,Simon Lucey
発行日 2023-12-20 16:15:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク