LiDAR Road-Atlas: An Efficient Map Representation for General 3D Urban Environment

要約

この作業では、一般的な都市環境での自律型ロボットまたは車両ナビゲーション用に、コンパクトで効率的な 3D マップ表現である LiDAR Road-Atlas を提案します。
LiDAR Road-Atlas は、ローカル 2D 占有グリッド マップ (2D-OGM) を段階的にマージすることに基づくオンライン マッピング フレームワークによって生成できます。
具体的には、LiDAR Road-Atlas 表現の貢献は 3 つあります。
まず、LiDAR ポイント クラウドの通過可能領域と縁石領域のリアルタイム境界に基づいて、構造化されていない都市シーンでローカル 2D-OGM を作成するという困難な問題を解決します。
第二に、確率論的融合スキームにより、複数層の都市道路シナリオで正確な 3D マッピングを実現します。
第 3 に、自動ローカル OGM 誘導通過可能領域ラベリングと疎確率ローカル ポイント クラウド エンコーディングのおかげで、一般的な環境の非常に効率的な 3D マップ表現を実現します。
LiDAR Road-Atlas があれば、正確な車両位置特定、経路計画、およびその他のタスクを達成できます。
私たちのマップ表現は、確率的融合に基づいて結果のマップで除外できる動的オブジェクトの影響を受けません。
経験的に、私たちのマップ表現を、ロボット工学や自動運転社会で一般的ないくつかのマップ表現方法と比較すると、効率、スケーラビリティ、コンパクトさの点で私たちのマップ表現の方が有利です。
さらに、いくつかの公開ベンチマーク データセットで作成された LiDAR Road-Atlas 表現を考慮して、ローカリゼーションの精度も広範囲に評価します。
16 チャネルの LiDAR センサーを使用すると、この方法では、Apollo データセットで 0.26m (平行移動) および 1.07 度 (回転)、MulRan データセットで 0.89m (平行移動) および 1.29 度 (回転) の平均グローバル ローカリゼーション エラーが達成されます。
それぞれ、10Hz で、自動運転のためのマップ表現の有望なパフォーマンスを検証します。

要約(オリジナル)

In this work, we propose the LiDAR Road-Atlas, a compactable and efficient 3D map representation, for autonomous robot or vehicle navigation in general urban environment. The LiDAR Road-Atlas can be generated by an online mapping framework based on incrementally merging local 2D occupancy grid maps (2D-OGM). Specifically, the contributions of our LiDAR Road-Atlas representation are threefold. First, we solve the challenging problem of creating local 2D-OGM in non-structured urban scenes based on a real-time delimitation of traversable and curb regions in LiDAR point cloud. Second, we achieve accurate 3D mapping in multiple-layer urban road scenarios by a probabilistic fusion scheme. Third, we achieve very efficient 3D map representation of general environment thanks to the automatic local-OGM induced traversable-region labeling and a sparse probabilistic local point-cloud encoding. Given the LiDAR Road-Atlas, one can achieve accurate vehicle localization, path planning and some other tasks. Our map representation is insensitive to dynamic objects which can be filtered out in the resulting map based on a probabilistic fusion. Empirically, we compare our map representation with a couple of popular map representation methods in robotics and autonomous driving societies, and our map representation is more favorable in terms of efficiency, scalability and compactness. In addition, we also evaluate localization accuracy extensively given the created LiDAR Road-Atlas representations on several public benchmark datasets. With a 16-channel LiDAR sensor, our method achieves an average global localization errors of 0.26m (translation) and 1.07 degrees (rotation) on the Apollo dataset, and 0.89m (translation) and 1.29 degrees (rotation) on the MulRan dataset, respectively, at 10Hz, which validates the promising performance of our map representation for autonomous driving.

arxiv情報

著者 Banghe Wu,Chengzhong Xu,Hui Kong
発行日 2023-03-13 07:16:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク