FusionPortableV2: A Unified Multi-Sensor Dataset for Generalized SLAM Across Diverse Platforms and Scalable Environments

要約

SLAM (Simultaneous Localization and Mapping) テクノロジーは、救助活動から自動運転に至るまで、さまざまなロボットのシナリオに広く適用されています。
ただし、現在のデータセットはプラットフォームや環境の点でスケーラビリティに欠けていることが多いため、SLAM アルゴリズムの一般化は依然として大きな課題です。
この制限に対処するために、センサーの多様性、多様な動作パターン、幅広い環境シナリオを特徴とするマルチセンサー SLAM データセットである FusionPortableV2 を紹介します。
私たちのデータセットは、2.5 ドル時間にわたる 27 ドルのシーケンスで構成され、ハンドヘルド スイート、脚式ロボット、無人地上車両 (UGV)、および車両の 4 つの異なるプラットフォームから収集されました。
これらのシーケンスは、建物、キャンパス、市街地などのさまざまな設定をカバーしており、全長は $38.7km$ に達します。
さらに、データセットには、約 $0.3km^2$ をカバーするグラウンド トゥルース (GT) 軌跡と RGB 点群マップが含まれています。
SLAM 研究を進める上でのデータセットの有用性を検証するために、いくつかの最先端 (SOTA) SLAM アルゴリズムを評価します。
さらに、単眼深度推定の可能性を調査することにより、データセットが従来の SLAM タスクを超えて広範に応用できることを実証します。
センサー データ、GT、キャリブレーションの詳細を含む完全なデータセットには、https://fusionportable.github.io/dataset/fusionportable_v2 からアクセスできます。

要約(オリジナル)

Simultaneous Localization and Mapping (SLAM) technology has been widely applied in various robotic scenarios, from rescue operations to autonomous driving. However, the generalization of SLAM algorithms remains a significant challenge, as current datasets often lack scalability in terms of platforms and environments. To address this limitation, we present FusionPortableV2, a multi-sensor SLAM dataset featuring sensor diversity, varied motion patterns, and a wide range of environmental scenarios. Our dataset comprises $27$ sequences, spanning over $2.5$ hours and collected from four distinct platforms: a handheld suite, a legged robots, a unmanned ground vehicle (UGV), and a vehicle. These sequences cover diverse settings, including buildings, campuses, and urban areas, with a total length of $38.7km$. Additionally, the dataset includes ground-truth (GT) trajectories and RGB point cloud maps covering approximately $0.3km^2$. To validate the utility of our dataset in advancing SLAM research, we assess several state-of-the-art (SOTA) SLAM algorithms. Furthermore, we demonstrate the dataset’s broad application beyond traditional SLAM tasks by investigating its potential for monocular depth estimation. The complete dataset, including sensor data, GT, and calibration details, is accessible at https://fusionportable.github.io/dataset/fusionportable_v2.

arxiv情報

著者 Hexiang Wei,Jianhao Jiao,Xiangcheng Hu,Jingwen Yu,Xupeng Xie,Jin Wu,Yilong Zhu,Yuxuan Liu,Lujia Wang,Ming Liu
発行日 2024-10-30 14:48:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク