要約
オンライン高精細 (HD) マップは、自動運転に推奨されるオプションとして浮上しており、柔軟な更新機能とメンテナンス コストの削減により、対応するオフライン HD マップに影を落としています。
ただし、最新のオンライン HD マップ モデルは視覚センサーのパラメーターをトレーニングに埋め込むため、異なるパラメーターを持つ視覚センサーに適用すると汎化パフォーマンスが大幅に低下します。
カメラ パラメーターがトレーニング プロセスから切り離される、逆遠近マッピング (IPM) の固有の可能性に着想を得て、ユニバーサル マップ生成フレームワークである GenMapping を設計しました。
このフレームワークは、主要ブランチとデュアル補助ブランチを含む 3 つの相乗効果アーキテクチャで確立されています。
IPM を介して変換された局所的な歪みを伴う粗い道路画像に直面すると、主ブランチは状態空間モデルに基づいて堅牢なグローバル特徴を学習します。
2 つの補助ブランチは、密なパースペクティブ ブランチと疎な事前ブランチです。
前者は静的オブジェクトと移動オブジェクト間の相関情報を活用するのに対し、後者は OpenStreetMap (OSM) の事前知識を導入します。
トリプル強化されたマージ モジュールは、3 つのブランチすべての独自の空間機能を相乗的に統合するように作られています。
一般化機能をさらに向上させるために、Cross-View Map Learning (CVML) スキームを活用して、共通空間内での共同学習を実現します。
さらに、データセットへの依存を同時に軽減するために、双方向データ拡張 (BiDA) モジュールが導入されています。
一連の徹底的な実験結果は、提案されたモデルがセマンティック マッピングとベクトル化マッピングの両方において現在の最先端の方法を上回り、同時に高速の推論速度を維持していることを示しています。
ソース コードは https://github.com/lynn-yu/GenMapping で公開されます。
要約(オリジナル)
Online High-Definition (HD) maps have emerged as the preferred option for autonomous driving, overshadowing the counterpart offline HD maps due to flexible update capability and lower maintenance costs. However, contemporary online HD map models embed parameters of visual sensors into training, resulting in a significant decrease in generalization performance when applied to visual sensors with different parameters. Inspired by the inherent potential of Inverse Perspective Mapping (IPM), where camera parameters are decoupled from the training process, we have designed a universal map generation framework, GenMapping. The framework is established with a triadic synergy architecture, including principal and dual auxiliary branches. When faced with a coarse road image with local distortion translated via IPM, the principal branch learns robust global features under the state space models. The two auxiliary branches are a dense perspective branch and a sparse prior branch. The former exploits the correlation information between static and moving objects, whereas the latter introduces the prior knowledge of OpenStreetMap (OSM). The triple-enhanced merging module is crafted to synergistically integrate the unique spatial features from all three branches. To further improve generalization capabilities, a Cross-View Map Learning (CVML) scheme is leveraged to realize joint learning within the common space. Additionally, a Bidirectional Data Augmentation (BiDA) module is introduced to mitigate reliance on datasets concurrently. A thorough array of experimental results shows that the proposed model surpasses current state-of-the-art methods in both semantic mapping and vectorized mapping, while also maintaining a rapid inference speed. The source code will be publicly available at https://github.com/lynn-yu/GenMapping.
arxiv情報
著者 | Siyu Li,Kailun Yang,Hao Shi,Song Wang,You Yao,Zhiyong Li |
発行日 | 2024-09-13 10:15:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google