MapPrior: Bird’s-Eye View Map Layout Estimation with Generative Models

要約

鳥瞰図 (BEV) の認識は大幅に進歩したにもかかわらず、既存のモデルは現実的で一貫したセマンティック マップ レイアウトを生成するには不十分であり、部分的なセンサー情報 (遮蔽や限られた範囲など) から生じる不確実性を考慮できません。
この研究では、従来の識別的な BEV 知覚モ​​デルとセマンティック マップ レイアウトの学習された生成モデルを組み合わせた新しい BEV 知覚フレームワークである MapPrior を紹介します。
当社の MapPrior は、より優れた精度、現実性、不確実性を認識した予測を提供します。
大規模な nuScenes ベンチマークでモデルを評価します。
提出時点では、MapPrior は最も強力な競合手法を上回り、カメラおよび LiDAR ベースの BEV 認識における MMD および ECE スコアが大幅に向上しました。

要約(オリジナル)

Despite tremendous advancements in bird’s-eye view (BEV) perception, existing models fall short in generating realistic and coherent semantic map layouts, and they fail to account for uncertainties arising from partial sensor information (such as occlusion or limited coverage). In this work, we introduce MapPrior, a novel BEV perception framework that combines a traditional discriminative BEV perception model with a learned generative model for semantic map layouts. Our MapPrior delivers predictions with better accuracy, realism, and uncertainty awareness. We evaluate our model on the large-scale nuScenes benchmark. At the time of submission, MapPrior outperforms the strongest competing method, with significantly improved MMD and ECE scores in camera- and LiDAR-based BEV perception.

arxiv情報

著者 Xiyue Zhu,Vlas Zyrianov,Zhijian Liu,Shenlong Wang
発行日 2023-08-24 17:58:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク