Improving Worst Case Visual Localization Coverage via Place-specific Sub-selection in Multi-camera Systems

要約

6-DoF視覚的ローカリゼーションシステムは、3Dジオメトリに根ざした原理的なアプローチを利用して、マップへの画像の正確なカメラポーズ推定を実行します。
現在の手法では、階層パイプラインと学習した2D特徴抽出機能を使用して、スケーラビリティを向上させ、パフォーマンスを向上させています。
ただし、通常のrecall @ 0.25mタイプのメトリックが向上したにもかかわらず、これらのシステムは、パフォーマンスの「最悪の」領域(特定の必要なエラー許容度で不十分なリコールを提供する場所)のため、自動運転車などの実際のアプリケーションではまだ有用性が限られています。

ここでは、「場所固有の構成」を使用することの有用性を調査します。ここでは、マップがいくつかの場所にセグメント化され、それぞれがポーズ推定ステップを変調するための独自の構成を持ちます。この場合、マルチカメラシステム内のカメラを選択します。
Ford AVベンチマークデータセットでは、既成のパイプラインを使用する場合と比較して、最悪の場合のローカリゼーションパフォーマンスが大幅に向上し、特定のエラー許容度で再現率が低いデータセットの割合が最小限に抑えられ、全体的なローカリゼーションパフォーマンスが向上します。
私たちが提案するアプローチは、自動運転車の展開のクラウドシェアリングモデルに特に適用できます。このモデルでは、AVのフリートが既知のルートを定期的に通過します。

要約(オリジナル)

6-DoF visual localization systems utilize principled approaches rooted in 3D geometry to perform accurate camera pose estimation of images to a map. Current techniques use hierarchical pipelines and learned 2D feature extractors to improve scalability and increase performance. However, despite gains in typical recall@0.25m type metrics, these systems still have limited utility for real-world applications like autonomous vehicles because of their `worst’ areas of performance – the locations where they provide insufficient recall at a certain required error tolerance. Here we investigate the utility of using `place specific configurations’, where a map is segmented into a number of places, each with its own configuration for modulating the pose estimation step, in this case selecting a camera within a multi-camera system. On the Ford AV benchmark dataset, we demonstrate substantially improved worst-case localization performance compared to using off-the-shelf pipelines – minimizing the percentage of the dataset which has low recall at a certain error tolerance, as well as improved overall localization performance. Our proposed approach is particularly applicable to the crowdsharing model of autonomous vehicle deployment, where a fleet of AVs are regularly traversing a known route.

arxiv情報

著者 Stephen Hausler,Ming Xu,Sourav Garg,Punarjay Chakravarty,Shubham Shrivastava,Ankit Vora,Michael Milford
発行日 2022-06-28 10:59:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク