要約
私たちは、検索ベースの位置特定アプローチが自動運転車の状況において十分に適切であるかどうかを理解することに興味を持っています。
この目標に向けて、以前の研究で使用されていたものよりも 10 ~ 100 倍大きい 3,000 万フレームを超える新しい画像と LiDAR データセットである Pit30M を導入します。
Pit30M は、さまざまな条件 (季節、天候、時刻、交通量など) の下で撮影され、正確な位置特定のグラウンド トゥルースを提供します。
また、過去の気象データや天文データ、さらにオクルージョンの代替手段として画像や LiDAR セマンティック セグメンテーションを使用して、データセットに自動的にアノテーションを付けます。
私たちは、画像および LiDAR 取得のための複数の既存の方法をベンチマークし、その過程で、最先端技術に匹敵する、シンプルでありながら効果的な畳み込みネットワークベースの LiDAR 取得方法を導入します。
私たちの研究は、都市規模でのサブメートル検索ベースの位置特定のベンチマークを初めて提供します。
データセット、その Python SDK、センサー、キャリブレーション、メタデータに関する詳細情報は、プロジェクト Web サイト https://pit30m.github.io/ で入手できます。
要約(オリジナル)
We are interested in understanding whether retrieval-based localization approaches are good enough in the context of self-driving vehicles. Towards this goal, we introduce Pit30M, a new image and LiDAR dataset with over 30 million frames, which is 10 to 100 times larger than those used in previous work. Pit30M is captured under diverse conditions (i.e., season, weather, time of the day, traffic), and provides accurate localization ground truth. We also automatically annotate our dataset with historical weather and astronomical data, as well as with image and LiDAR semantic segmentation as a proxy measure for occlusion. We benchmark multiple existing methods for image and LiDAR retrieval and, in the process, introduce a simple, yet effective convolutional network-based LiDAR retrieval method that is competitive with the state of the art. Our work provides, for the first time, a benchmark for sub-metre retrieval-based localization at city scale. The dataset, its Python SDK, as well as more information about the sensors, calibration, and metadata, are available on the project website: https://pit30m.github.io/
arxiv情報
著者 | Julieta Martinez,Sasha Doubov,Jack Fan,Ioan Andrei Bârsan,Shenlong Wang,Gellért Máttyus,Raquel Urtasun |
発行日 | 2024-05-01 02:07:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google