要約
正確かつ堅牢な位置特定は、自動運転車にとって依然として大きな課題です。
センサーのコストと局所的な計算効率の制限により、大規模な商用アプリケーションへの拡張が困難になります。
従来のビジョンベースのアプローチは、照明、季節、視点、外観の変化の影響を受けやすいテクスチャの特徴に焦点を当てていました。
さらに、記述子と複雑な最適化プロセスを含むマップのストレージ サイズが大きいため、システムのパフォーマンスが妨げられます。
効率と精度のバランスをとるために、低レベルのテクスチャ特徴の代わりに安定した意味論的特徴を採用する、新しい軽量の視覚的意味論的位置特定アルゴリズムを提案します。
まず、カメラまたは LiDAR センサーを使用して、地表マーカー、車線境界線、電柱などの意味オブジェクトを検出することにより、意味マップがオフラインで構築されます。
次に、セマンティック特徴とマップ オブジェクトのデータ関連付けを通じて、オンラインのビジュアル ローカライゼーションが実行されます。
私たちは、公開されている KAIST 都市データセットと私たち自身が記録したシナリオで、提案したローカリゼーション フレームワークを評価しました。
実験結果は、私たちの方法がさまざまな自動運転位置特定タスクにおいて信頼性が高く実用的な位置特定ソリューションであることを示しています。
要約(オリジナル)
Accurate and robust localization remains a significant challenge for autonomous vehicles. The cost of sensors and limitations in local computational efficiency make it difficult to scale to large commercial applications. Traditional vision-based approaches focus on texture features that are susceptible to changes in lighting, season, perspective, and appearance. Additionally, the large storage size of maps with descriptors and complex optimization processes hinder system performance. To balance efficiency and accuracy, we propose a novel lightweight visual semantic localization algorithm that employs stable semantic features instead of low-level texture features. First, semantic maps are constructed offline by detecting semantic objects, such as ground markers, lane lines, and poles, using cameras or LiDAR sensors. Then, online visual localization is performed through data association of semantic features and map objects. We evaluated our proposed localization framework in the publicly available KAIST Urban dataset and in scenarios recorded by ourselves. The experimental results demonstrate that our method is a reliable and practical localization solution in various autonomous driving localization tasks.
arxiv情報
著者 | Jixiang Wan,Xudong Zhang,Shuzhou Dong,Yuwei Zhang,Yuchen Yang,Ruoxi Wu,Ye Jiang,Jijunnan Li,Jinquan Lin,Ming Yang |
発行日 | 2024-06-06 08:12:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google