EdgeVO: An Efficient and Accurate Edge-based Visual Odometry

要約

ビジュアル オドメトリは、自動運転車やロボット ナビゲーションなどの多くのアプリケーションにとって重要です。
テクスチャのないシーンや照明が急激に変化する環境でビジュアル オドメトリを実施することは困難であり、一般的な機能ベースの方法や直接的な方法ではうまく機能しません。
この課題に対処するために、いくつかのエッジベースの方法が提案されていますが、通常は効率と精度の間で苦労しています。
この作業では、\textit{EdgeVO} と呼ばれる、正確で効率的で堅牢な新しいビジュアル オドメトリ アプローチを提案します。
特定の戦略でエッジの小さなセットを効率的に選択することにより、精度を犠牲にすることなく計算効率を大幅に向上させます。
既存のエッジベースの方法と比較して、私たちの方法は、同様の精度を維持するか、さらにはより高い精度を達成しながら、計算の複雑さを大幅に軽減できます。
これは、私たちの方法が無用またはノイズの多いエッジを削除したことに起因します。
TUM データセットの実験結果は、EdgeVO が効率、精度、および堅牢性の点で他の方法よりも大幅に優れていることを示しています。

要約(オリジナル)

Visual odometry is important for plenty of applications such as autonomous vehicles, and robot navigation. It is challenging to conduct visual odometry in textureless scenes or environments with sudden illumination changes where popular feature-based methods or direct methods cannot work well. To address this challenge, some edge-based methods have been proposed, but they usually struggle between the efficiency and accuracy. In this work, we propose a novel visual odometry approach called \textit{EdgeVO}, which is accurate, efficient, and robust. By efficiently selecting a small set of edges with certain strategies, we significantly improve the computational efficiency without sacrificing the accuracy. Compared to existing edge-based method, our method can significantly reduce the computational complexity while maintaining similar accuracy or even achieving better accuracy. This is attributed to that our method removes useless or noisy edges. Experimental results on the TUM datasets indicate that EdgeVO significantly outperforms other methods in terms of efficiency, accuracy and robustness.

arxiv情報

著者 Hui Zhao,Jianga Shang,Kai Liu,Chao Chen,Fuqiang Gu
発行日 2023-02-19 06:46:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク