Scale-aware direct monocular odometry

要約

深部ニューラルネットワークからの深さ予測に基づくスケール認識直接単眼オドメトリの一般的なフレームワークを提示します。
深度情報が部分的にしか利用されていない以前の方法とは対照的に、マルチビュー深度情報を組み込むことを可能にする新しい深度予測残差を定式化します。
さらに、一貫性のない深度推定の考慮を防ぐ、切り捨てられたロバストコスト関数を使用することを提案します。
測光と深度予測の測定は、緊密に結合された最適化に統合され、スケールドリフトを蓄積しないスケール認識単眼システムにつながります。
私たちの提案は具体的なニューラルネットワークに特化しておらず、既存の深度予測ソリューションの大部分と連携することができます。
2つの公的に利用可能なニューラルネットワークを使用して、KITTIオドメトリデータセットでそれを評価し、同様のアプローチおよび単眼およびステレオSLAMの最先端と比較して、提案の妥当性と一般性を示します。
実験によると、私たちの提案は、従来の単眼SLAMを大幅に上回り、5〜9倍正確であり、同様のアプローチを上回り、ステレオシステムの精度に近い精度を備えています。

要約(オリジナル)

We present a generic framework for scale-aware direct monocular odometry based on depth prediction from a deep neural network. In contrast with previous methods where depth information is only partially exploited, we formulate a novel depth prediction residual which allows us to incorporate multi-view depth information. In addition, we propose to use a truncated robust cost function which prevents considering inconsistent depth estimations. The photometric and depth-prediction measurements are integrated into a tightly-coupled optimization leading to a scale-aware monocular system which does not accumulate scale drift. Our proposal does not particularize for a concrete neural network, being able to work along with the vast majority of the existing depth prediction solutions. We demonstrate the validity and generality of our proposal evaluating it on the KITTI odometry dataset, using two publicly available neural networks and comparing it with similar approaches and the state-of-the-art for monocular and stereo SLAM. Experiments show that our proposal largely outperforms classic monocular SLAM, being 5 to 9 times more precise, beating similar approaches and having an accuracy which is closer to that of stereo systems.

arxiv情報

著者 Carlos Campos,Juan D. Tardós
発行日 2022-07-22 12:55:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク