Calibrated Perception Uncertainty Across Objects and Regions in Bird’s-Eye-View

要約

視界不良やオクルージョンのある走行シナリオでは、自律走行車が安全速度の選択を含む走行判断を行う際に、すべての不確実性を考慮することが重要である。そのため、グリッドベースの知覚出力(例えば占有率グリッド)やオブジェクトベースの出力(例えば検出されたオブジェクトのリスト)には、十分に較正された不確実性推定値が必要である。本論文では、このような最新の技術の限界を明らかにし、特に未検出物体前方確率を含む、より完全な不確かさのセットを報告するよう提案する。FIERYモデルの例では、鳥瞰図的確率的意味分割からこれらの確率的出力を得るための新しい方法を提案する。得られた確率はすぐに較正されないことを示し、十分に較正された不確実性を達成するための方法を提案する。

要約(オリジナル)

In driving scenarios with poor visibility or occlusions, it is important that the autonomous vehicle would take into account all the uncertainties when making driving decisions, including choice of a safe speed. The grid-based perception outputs, such as occupancy grids, and object-based outputs, such as lists of detected objects, must then be accompanied by well-calibrated uncertainty estimates. We highlight limitations in the state-of-the-art and propose a more complete set of uncertainties to be reported, particularly including undetected-object-ahead probabilities. We suggest a novel way to get these probabilistic outputs from bird’s-eye-view probabilistic semantic segmentation, in the example of the FIERY model. We demonstrate that the obtained probabilities are not calibrated out-of-the-box and propose methods to achieve well-calibrated uncertainties.

arxiv情報

著者 Markus Kängsepp,Meelis Kull
発行日 2022-11-08 16:01:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク