要約
ディープ ラーニング ベースの深度予測とベイジアン フィルター処理ベースのポーズ推論を共同でトレーニングすることにより、新しい単眼ローカリゼーション フレームワークを提示します。
提案されたクロスモーダル フレームワークは、モデルのスケーラビリティと環境変動に対する耐性に関して、ディープ ラーニングのみの予測よりも大幅に優れています。
具体的には、軽量の深度予測子からの深度推定が非常に貧弱であっても、ポーズの精度がほとんどまたはまったく低下しないことを示しています。
また、私たちのフレームワークは、明示的なドメイン適応がなくても、標準的な深層学習と比較して、極端な照明変動で高いポーズ精度を維持します。
マップと中間特徴マップ (深さの推定など) をオープンに表現することで、私たちのフレームワークは更新を高速化し、障害物回避などの他のタスクに中間予測を再利用することも可能にし、リソース効率を大幅に向上させます。
要約(オリジナル)
We present a novel monocular localization framework by jointly training deep learning-based depth prediction and Bayesian filtering-based pose reasoning. The proposed cross-modal framework significantly outperforms deep learning-only predictions with respect to model scalability and tolerance to environmental variations. Specifically, we show little-to-no degradation of pose accuracy even with extremely poor depth estimates from a lightweight depth predictor. Our framework also maintains high pose accuracy in extreme lighting variations compared to standard deep learning, even without explicit domain adaptation. By openly representing the map and intermediate feature maps (such as depth estimates), our framework also allows for faster updates and reusing intermediate predictions for other tasks, such as obstacle avoidance, resulting in much higher resource efficiency.
arxiv情報
著者 | Priyesh Shukla,Sureshkumar S.,Alex C. Stutts,Sathya Ravi,Theja Tulabandhula,Amit R. Trivedi |
発行日 | 2022-10-27 15:48:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google