要約
深層学習アーキテクチャに幾何学的アルゴリズムを組み込んだ最近のビジュアル オドメトリ (VO) メソッドは、挑戦的な単眼 VO タスクで優れたパフォーマンスを示しています。
有望な結果が示されているにもかかわらず、以前の方法では、ノイズの多い環境やさまざまなシーンでの一般化機能の要件が無視されていました。
この困難な問題に対処するために、この作業では最初に新しいオプティカル フロー ネットワーク (PANet) を提案します。
オプティカル フローを直接回帰タスクとして予測する以前の方法と比較して、当社の PANet は、オプティカル フロー確率ボリュームを使用して離散位置空間にオプティカル フローを予測し、それをオプティカル フローに変換することによってオプティカル フローを計算します。
次に、複数のサンプリング、エゴモーションの初期化、動的減衰係数の調整、およびヤコビ行列の重み付けを導入することにより、自己教師ありトレーニング パイプラインに適合するようにバンドル調整モジュールを改善します。
さらに、深度推定の精度を向上させるために、新しい正規化された測光損失関数が拡張されています。
実験は、提案されたシステムが、KITTI データセットに対する他の最先端の自己教師あり学習ベースの方法と同等のパフォーマンスを達成するだけでなく、ジオメトリベース、学習ベース、および
ノイズの多い KITTI とチャレンジングなアウトドア (KAIST) シーンでのハイブリッド VO システム。
要約(オリジナル)
Recent visual odometry (VO) methods incorporating geometric algorithm into deep-learning architecture have shown outstanding performance on the challenging monocular VO task. Despite encouraging results are shown, previous methods ignore the requirement of generalization capability under noisy environment and various scenes. To address this challenging issue, this work first proposes a novel optical flow network (PANet). Compared with previous methods that predict optical flow as a direct regression task, our PANet computes optical flow by predicting it into the discrete position space with optical flow probability volume, and then converting it to optical flow. Next, we improve the bundle adjustment module to fit the self-supervised training pipeline by introducing multiple sampling, ego-motion initialization, dynamic damping factor adjustment, and Jacobi matrix weighting. In addition, a novel normalized photometric loss function is advanced to improve the depth estimation accuracy. The experiments show that the proposed system not only achieves comparable performance with other state-of-the-art self-supervised learning-based methods on the KITTI dataset, but also significantly improves the generalization capability compared with geometry-based, learning-based and hybrid VO systems on the noisy KITTI and the challenging outdoor (KAIST) scenes.
arxiv情報
著者 | Yijun Cao,Xianshi Zhang,Fuya Luo,Peng Peng,Yongjie Li |
発行日 | 2022-12-21 11:42:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google