要約
深い視覚的臭気は、広範な研究にもかかわらず、より広いアプリケーションを妨げる精度と一般化可能性の制限に依然として直面しています。
これらの課題に対処するために、ORB-SFMLEARNERという名前の選択的なオンライン適応を備えた、向きの高速で回転した短時間(ORB)ガイド付き視覚障害を提案します。
学習ベースのエゴモーション推定のためのORB機能の新しい使用を提示し、より堅牢で正確な結果をもたらします。
また、ポセネットの説明可能性を高めるために、横断的なメカニズムを導入し、車両の駆動方向が注意の重量を通して説明できることを明らかにしました。
一般化可能性を向上させるために、当社の選択的オンライン適応により、ネットワークは異なるドメインの最適なパラメーターに迅速かつ選択的に調整できます。
KittiおよびVkittiデータセットの実験結果は、この方法が、エゴモーションの精度と一般化可能性の観点から、以前の最先端の深い視覚臭トメトリ法よりも優れていることを示しています。
要約(オリジナル)
Deep visual odometry, despite extensive research, still faces limitations in accuracy and generalizability that prevent its broader application. To address these challenges, we propose an Oriented FAST and Rotated BRIEF (ORB)-guided visual odometry with selective online adaptation named ORB-SfMLearner. We present a novel use of ORB features for learning-based ego-motion estimation, leading to more robust and accurate results. We also introduce the cross-attention mechanism to enhance the explainability of PoseNet and have revealed that driving direction of the vehicle can be explained through the attention weights. To improve generalizability, our selective online adaptation allows the network to rapidly and selectively adjust to the optimal parameters across different domains. Experimental results on KITTI and vKITTI datasets show that our method outperforms previous state-of-the-art deep visual odometry methods in terms of ego-motion accuracy and generalizability.
arxiv情報
著者 | Yanlin Jin,Rui-Yang Ju,Haojun Liu,Yuzhong Zhong |
発行日 | 2025-01-29 12:21:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google