要約
単眼の視覚臭気(MVO)は、自動運転車の費用対効果の高いリアルタイムポジショニングソリューションを提供します。
ただし、MVOシステムは、単眼カメラから固有のスケール情報が不足しているという一般的な問題に直面しています。
従来の方法は優れた解釈可能性を持っていますが、相対的なスケールを取得することしかできず、長距離タスクの深刻なスケールドリフトに苦しむことができます。
パースペクティブビューの下での学習ベースの方法は、大量のトレーニングデータを活用して、事前知識を取得し、深さ値を予測することにより絶対スケールを推定します。
ただし、各ポイントの深さを正確に推定する必要があるため、一般化能力は制限されています。
対照的に、Bev-DWPVOと呼ばれる新しいMVOシステムを提案します。
私たちのアプローチは、バードアイビュー(BEV)機能マップを使用して、グリッドベースの構造の環境を統一されたスケールの構造の環境を表す、グラウンドプレーンの一般的な仮定を活用しています。
これにより、ポーズ推定の複雑さを6度の自由度(DOF)から3-DOFに減らすことができます。
キーポイントは抽出され、BEV空間内で一致し、その後、微細な加重Procrustesソルバーを介したポーズ推定が行われます。
システム全体は完全に微分可能であり、監督のみが補助タスクなしでエンドツーエンドのトレーニングをサポートしています。
挑戦的な長シーケンスデータセットNCLT、オックスフォード、キッティでBEV-DWPVOを検証し、ほとんどの評価メトリックで既存のMVOメソッドよりも優れた結果を達成します。
要約(オリジナル)
Monocular Visual Odometry (MVO) provides a cost-effective, real-time positioning solution for autonomous vehicles. However, MVO systems face the common issue of lacking inherent scale information from monocular cameras. Traditional methods have good interpretability but can only obtain relative scale and suffer from severe scale drift in long-distance tasks. Learning-based methods under perspective view leverage large amounts of training data to acquire prior knowledge and estimate absolute scale by predicting depth values. However, their generalization ability is limited due to the need to accurately estimate the depth of each point. In contrast, we propose a novel MVO system called BEV-DWPVO. Our approach leverages the common assumption of a ground plane, using Bird’s-Eye View (BEV) feature maps to represent the environment in a grid-based structure with a unified scale. This enables us to reduce the complexity of pose estimation from 6 Degrees of Freedom (DoF) to 3-DoF. Keypoints are extracted and matched within the BEV space, followed by pose estimation through a differentiable weighted Procrustes solver. The entire system is fully differentiable, supporting end-to-end training with only pose supervision and no auxiliary tasks. We validate BEV-DWPVO on the challenging long-sequence datasets NCLT, Oxford, and KITTI, achieving superior results over existing MVO methods on most evaluation metrics.
arxiv情報
著者 | Yufei Wei,Sha Lu,Wangtao Lu,Rong Xiong,Yue Wang |
発行日 | 2025-02-27 13:36:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google