SegLocNet: Multimodal Localization Network for Autonomous Driving via Bird’s-Eye-View Segmentation

要約

堅牢で正確なローカリゼーションは、自律運転に重要です。
従来のGNSSベースのローカリゼーション方法は、都市環境における信号閉塞とマルチパス効果に悩まされています。
一方、高解像度(HD)マップに依存する方法は、HDマップの建設とメンテナンスに関連する高コストによって制約されます。
一方、Standard-Definition(SD)マップベースの方法は、多くの場合、過剰適合による不十分なパフォーマンスや一般化能力が低いことがよくあります。
これらの課題に対処するために、鳥瞰図(BEV)セマンティックセグメンテーションを使用して正確なローカリゼーションを実現するマルチモーダルGNSSフリーローカリゼーションネットワークであるSeglocnetを提案します。
Seglocnetは、BEVセグメンテーションネットワークを採用して、複数のセンサー入力からセマンティックマップを生成し、その後、車両のエゴポーズを推定するための徹底的なマッチングプロセスが続きます。
このアプローチは、回帰ベースのポーズ推定の制限を回避し、高い解釈可能性と一般化を維持します。
統一されたマップ表現を導入することにより、ネットワークアーキテクチャを変更することなく、HDマップとSDマップの両方にこの方法を適用でき、それによりローカリゼーションの精度とエリアカバレッジのバランスを取ります。
ヌスセンと編集データセットに関する広範な実験は、私たちの方法が現在の最先端の方法を上回ること、そして強力な一般化能力を維持しながら、GNSSに依存することなく都市環境でのエゴポーズを正確に推定できることを示しています。
私たちのコードと事前に訓練されたモデルは公開されます。

要約(オリジナル)

Robust and accurate localization is critical for autonomous driving. Traditional GNSS-based localization methods suffer from signal occlusion and multipath effects in urban environments. Meanwhile, methods relying on high-definition (HD) maps are constrained by the high costs associated with the construction and maintenance of HD maps. Standard-definition (SD) maps-based methods, on the other hand, often exhibit unsatisfactory performance or poor generalization ability due to overfitting. To address these challenges, we propose SegLocNet, a multimodal GNSS-free localization network that achieves precise localization using bird’s-eye-view (BEV) semantic segmentation. SegLocNet employs a BEV segmentation network to generate semantic maps from multiple sensor inputs, followed by an exhaustive matching process to estimate the vehicle’s ego pose. This approach avoids the limitations of regression-based pose estimation and maintains high interpretability and generalization. By introducing a unified map representation, our method can be applied to both HD and SD maps without any modifications to the network architecture, thereby balancing localization accuracy and area coverage. Extensive experiments on the nuScenes and Argoverse datasets demonstrate that our method outperforms the current state-of-the-art methods, and that our method can accurately estimate the ego pose in urban environments without relying on GNSS, while maintaining strong generalization ability. Our code and pre-trained model will be released publicly.

arxiv情報

著者 Zijie Zhou,Zhangshuo Qi,Luqi Cheng,Guangming Xiong
発行日 2025-02-28 14:25:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク