要約
奥行き推定は、自動運転システムやロボット システムにおける認識の基礎です。
LiDAR システムはコストが高く、データ取得が比較的まばらであるため、費用対効果の高い代替手段、特に自己監視型深度推定の探求につながりました。
それにもかかわらず、現在の自己監視型深度推定方法は、次のようないくつかの制限に直面しています。(1) 有益なマルチカメラ ビューを適切に活用できない。
(2) 動的オブジェクトを効果的に処理する能力が限られている。
これらの課題に対処するために、Bird’s-Eye-View (BEV) 機能を利用した自己監視型深度推定への革新的なアプローチである BEVScope を紹介します。
同時に、移動する物体に関連する複雑さを軽減するために特別に設計された適応損失関数を提案します。
Nuscenes データセットに対して実施された実証評価により、当社のアプローチが検証され、競争力のあるパフォーマンスが実証されました。
コードは https://github.com/myc634/BEVScope でリリースされます。
要約(オリジナル)
Depth estimation is a cornerstone of perception in autonomous driving and robotic systems. The considerable cost and relatively sparse data acquisition of LiDAR systems have led to the exploration of cost-effective alternatives, notably, self-supervised depth estimation. Nevertheless, current self-supervised depth estimation methods grapple with several limitations: (1) the failure to adequately leverage informative multi-camera views. (2) the limited capacity to handle dynamic objects effectively. To address these challenges, we present BEVScope, an innovative approach to self-supervised depth estimation that harnesses Bird’s-Eye-View (BEV) features. Concurrently, we propose an adaptive loss function, specifically designed to mitigate the complexities associated with moving objects. Empirical evaluations conducted on the Nuscenes dataset validate our approach, demonstrating competitive performance. Code will be released at https://github.com/myc634/BEVScope.
arxiv情報
著者 | Yucheng Mao,Ruowen Zhao,Tianbao Zhang,Hang Zhao |
発行日 | 2023-06-20 15:16:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google