Fast Neural Scene Flow

要約

タイトル:高速ニューラルシーンフロー
要約:
– ニューラルシーンフロー・プライオリティ(NSFP)は、アウト・オブ・ディストリビューション効果(OOD)に対する固有の堅牢性と密なLIDARポイントの扱いに対してビジョンコミュニティの重大な関心を集めています。
– このアプローチでは、トレーニングを必要とせず、ランタイムでシーンフローを推定するために座標ニューラルネットワークを使用します。
– しかし、現在の最先端の学習法よりも最大100倍遅いため、高速化のための革新が必要とされています。
– 本論文では、他のアプリケーションでは、座標ネットワークのランタイムパフォーマンスを向上させるための革新が建築的な変化に集中していることを指摘します。
– シーンフローは異なり、主要なコンピューテーショナルボトルネックは損失関数自体(すなわちチャンファー距離)に由来するため、距離変換(DT)を効率的で対応関係のない損失関数として再発見し、ランタイム最適化を劇的に高速化します。
– 高速ニューラルシーンフロー(FNSF)アプローチは、WaymoオープンとArgoverseの2つの最大の自立走行(AV)LIDARデータセットで、トレーニングなし、OODバイアスなしでリアルタイムパフォーマンスを初めて報告しています。

要約(オリジナル)

Neural Scene Flow Prior (NSFP) is of significant interest to the vision community due to its inherent robustness to out-of-distribution (OOD) effects and its ability to deal with dense lidar points. The approach utilizes a coordinate neural network to estimate scene flow at runtime, without any training. However, it is up to 100 times slower than current state-of-the-art learning methods. In other applications such as image, video, and radiance function reconstruction innovations in speeding up the runtime performance of coordinate networks have centered upon architectural changes. In this paper, we demonstrate that scene flow is different — with the dominant computational bottleneck stemming from the loss function itself (i.e., Chamfer distance). Further, we rediscover the distance transform (DT) as an efficient, correspondence-free loss function that dramatically speeds up the runtime optimization. Our fast neural scene flow (FNSF) approach reports for the first time real-time performance comparable to learning methods, without any training or OOD bias on two of the largest open autonomous driving (AV) lidar datasets Waymo Open and Argoverse.

arxiv情報

著者 Xueqian Li,Jianqiao Zheng,Francesco Ferroni,Jhony Kaesemodel Pontes,Simon Lucey
発行日 2023-04-20 18:57:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク