CodedVO: Coded Visual Odometry

要約

自律型ロボットは、走行距離の推定とナビゲーションに単眼カメラを利用することがよくあります。
しかし、スケールのあいまいさの問題は、効果的な単眼視覚オドメトリにとって重大な障壁となります。
この論文では、カスタム光学系を採用してメトリクス深度情報を画像に物理的にエンコードすることでスケールの曖昧さの問題を克服する、新しい単眼視覚オドメトリ方法である CodedVO を紹介します。
この情報をオドメトリ パイプラインに組み込むことで、既知のスケールでの単眼視覚オドメトリにおける最先端のパフォーマンスを実現します。
私たちはさまざまな屋内環境でこの方法を評価し、その堅牢性と適応性を実証します。
ICL-NUIM 屋内オドメトリ データセットのオドメトリ評価では、平均軌道誤差 0.08m を達成しました。

要約(オリジナル)

Autonomous robots often rely on monocular cameras for odometry estimation and navigation. However, the scale ambiguity problem presents a critical barrier to effective monocular visual odometry. In this paper, we present CodedVO, a novel monocular visual odometry method that overcomes the scale ambiguity problem by employing custom optics to physically encode metric depth information into imagery. By incorporating this information into our odometry pipeline, we achieve state-of-the-art performance in monocular visual odometry with a known scale. We evaluate our method in diverse indoor environments and demonstrate its robustness and adaptability. We achieve a 0.08m average trajectory error in odometry evaluation on the ICL-NUIM indoor odometry dataset.

arxiv情報

著者 Sachin Shah,Naitri Rajyaguru,Chahat Deep Singh,Christopher Metzler,Yiannis Aloimonos
発行日 2024-07-25 17:54:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク