P-MapNet: Far-seeing Map Generator Enhanced by both SDMap and HDMap Priors

要約

現在、高解像度地図 (HDMap) の助けを借りて、自動運転車が徐々に都市の道路に導入されつつあります。
しかし、HDMaps への依存により、自動運転車はこの高価なデジタル インフラストラクチャのない地域に足を踏み入れることができなくなります。
この事実により、多くの研究者がオンライン HDMap 生成アルゴリズムを研究するようになりましたが、遠方の領域でのこれらのアルゴリズムのパフォーマンスは依然として満足のいくものではありません。
ここでは P-MapNet を紹介します。P の文字は、モデルのパフォーマンスを向上させるためにマップ事前分布を組み込むことに焦点を当てているという事実を強調しています。
具体的には、SDMap と HDMap の両方で事前確率を活用します。
一方では、OpenStreetMap から弱くアライメントされた SDMap を抽出し、それを追加の条件付けブランチとしてエンコードします。
位置ずれの課題にもかかわらず、当社のアテンションベースのアーキテクチャは、関連する SDMap スケルトンに適応的に対応し、パフォーマンスを大幅に向上させます。
一方、マスクされたオートエンコーダを利用して、HDMap の以前の分布をキャプチャします。これは、オクルージョンやアーティファクトを軽減するための改良モジュールとして機能します。
nuScenes および Argoverse2 データセットでベンチマークを実行します。
包括的な実験を通じて、次のことを示します: (1) SDMap 事前アルゴリズムは、ラスター化 (最大 $+18.73$ $\rm mIoU$) とベクトル化 (最大 $+8.50$ $\) の両方を使用して、オンライン マップ生成のパフォーマンスを向上させることができます。
rm mAP$) の出力表現。
(2) 以前の HDMap では、地図の知覚メトリクスを最大 $6.34\%$ 改善できます。
(3) P-MapNet は、精度と効率のトレードオフ状況のさまざまな領域をカバーするさまざまな推論モードに切り替えることができます。
(4) P-MapNet は、長距離で大きな改善をもたらす先見の明のあるソリューションです。
コードとモデルは https://jike5.github.io/P-MapNet で公開されています。

要約(オリジナル)

Autonomous vehicles are gradually entering city roads today, with the help of high-definition maps (HDMaps). However, the reliance on HDMaps prevents autonomous vehicles from stepping into regions without this expensive digital infrastructure. This fact drives many researchers to study online HDMap generation algorithms, but the performance of these algorithms at far regions is still unsatisfying. We present P-MapNet, in which the letter P highlights the fact that we focus on incorporating map priors to improve model performance. Specifically, we exploit priors in both SDMap and HDMap. On one hand, we extract weakly aligned SDMap from OpenStreetMap, and encode it as an additional conditioning branch. Despite the misalignment challenge, our attention-based architecture adaptively attends to relevant SDMap skeletons and significantly improves performance. On the other hand, we exploit a masked autoencoder to capture the prior distribution of HDMap, which can serve as a refinement module to mitigate occlusions and artifacts. We benchmark on the nuScenes and Argoverse2 datasets. Through comprehensive experiments, we show that: (1) our SDMap prior can improve online map generation performance, using both rasterized (by up to $+18.73$ $\rm mIoU$) and vectorized (by up to $+8.50$ $\rm mAP$) output representations. (2) our HDMap prior can improve map perceptual metrics by up to $6.34\%$. (3) P-MapNet can be switched into different inference modes that covers different regions of the accuracy-efficiency trade-off landscape. (4) P-MapNet is a far-seeing solution that brings larger improvements on longer ranges. Codes and models are publicly available at https://jike5.github.io/P-MapNet.

arxiv情報

著者 Zhou Jiang,Zhenxin Zhu,Pengfei Li,Huan-ang Gao,Tianyuan Yuan,Yongliang Shi,Hang Zhao,Hao Zhao
発行日 2024-03-15 17:59:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク