InterLoc: LiDAR-based Intersection Localization using Road Segmentation with Automated Evaluation Method

要約

道路交差点のオンライン・ローカライゼーションは、自律走行車のローカライゼーション、マッピング、モーションプランニングに有益である。交差点は、GNSS脱落時に車両の姿勢推定を修正し、新しいセンサーデータを最新の地図に固定するための強力なランドマークとなる。交差点はまた、道路ネットワークグラフにおける決定的なルーティングノードでもある。このような重要性にもかかわらず、交差点ローカライゼーションは広く研究されておらず、既存の手法では、すでに車載で計算された豊富な意味情報を無視するか、少ない、手作業でラベル付けされた交差点データセットに依存している。このギャップを埋めるため、本稿ではLiDARをベースとした車両中心のオンライン交差点位置特定手法を紹介する。意味的な道路セグメンテーションと車両のローカルポーズを融合し、鳥瞰図(BEV)表現で交差点候補を検出する。次に、枝のトポロジーを分析し、最小二乗法で交差点を補正することで、交差点候補を絞り込む。本手法を評価するために、正確なGNSS/INSの地上真理ポーズを用いて、ローカライズされた交差点とOpenStreetMap(OSM)の交差点ノードをペアリングする自動ベンチマークパイプラインを導入する。SemanticKITTIを用いた実験では、本手法が最新の学習ベースのベースラインを精度と信頼性において上回ることが示された。さらに、感度テストにより、本手法が困難なセグメンテーションエラーレベルに対してロバストであることが実証され、実世界での適用可能性が強調された。

要約(オリジナル)

Online localization of road intersections is beneficial for autonomous vehicle localization, mapping and motion planning. Intersections offer strong landmarks to correct vehicle pose estimation in GNSS dropouts and anchor new sensor data in up-to-date maps. They are also decisive routing nodes in road network graphs. Despite that importance, intersection localization has not been widely studied, with existing methods either ignore the rich semantic information already computed onboard or depend on scarce, hand-labeled intersection datasets. To close that gap, this paper presents a LiDAR-based method for online vehicle-centric intersection localization. We fuse semantic road segmentation with vehicle local pose to detect intersection candidates in a bird’s eye view (BEV) representation. We then refine those candidates by analyzing branch topology and correcting the intersection point in a least squares formulation. To evaluate our method, we introduce an automated benchmarking pipeline that pairs localized intersection points with OpenStreetMap (OSM) intersection nodes using precise GNSS/INS ground-truth poses. Experiments on SemanticKITTI show that the method outperforms the latest learning-based baseline in accuracy and reliability. Moreover, sensitivity tests demonstrate that our method is robust to challenging segmentation error levels, highlighting its applicability in the real world.

arxiv情報

著者 Nguyen Hoang Khoi Tran,Julie Stephany Berrio,Mao Shan,Zhenxing Ming,Stewart Worrall
発行日 2025-05-02 07:20:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク