BotanicGarden: A High-Quality Dataset for Robot Navigation in Unstructured Natural Environments

要約

長年にわたるモバイルロボットと自律ナビゲーションの急速な発展は、センサーのオドメトリーやSLAMタスクのような、テストとアップグレードのための公開データセットによって大きく後押しされている。印象的なデモやベンチマークのスコアは、既存のナビゲーション技術の成熟度を示唆しているかもしれません。しかし、これらの結果は、主に適度な構造化シナリオテストに基づいている。挑戦的な非構造化環境、特にGNSSを無視し、テクスチャが単調で、植物が密集した自然フィールドに移行する場合、それらの性能は高いレベルを維持することは難しく、さらなる検証と改善が必要である。このギャップを埋めるために、我々は48000m2以上の豊かな植物園で新しいロボットナビゲーションデータセットを構築した。グレーとRGBのステレオカメラ、回転式とMEMSの3D LiDAR、低コストと産業グレードのIMUを含む包括的なセンサーが使用され、これらはすべてよく較正され、ハードウェアで同期されている。データ収集には全地形対応の車輪付きロボットが採用され、これまでの資源に乏しい生い茂った森、川辺、狭い小道、橋、草原を横断する。その結果、33の短いシーケンスと長いシーケンスが得られ、合計17.1kmの軌跡が形成された。エキサイティングなことに、精度の高いエゴモーションと3Dマップのグランドトゥルースの両方が、細かい注釈付きの視覚セマンティクスとともに提供されている。我々は、このデータセットがロボットナビゲーションとセンサーフュージョンの研究をより高いレベルまで進めることができると確信している。

要約(オリジナル)

The rapid developments of mobile robotics and autonomous navigation over the years are largely empowered by public datasets for testing and upgrading, such as sensor odometry and SLAM tasks. Impressive demos and benchmark scores have arisen, which may suggest the maturity of existing navigation techniques. However, these results are primarily based on moderate structured scenario testing. When transitioning to challenging unstructured environments, especially in GNSS-denied, texture-monotonous, and dense-vegetated natural fields, their performance can hardly sustain at a high level and requires further validation and improvement. To bridge this gap, we build a novel robot navigation dataset in a luxuriant botanic garden of more than 48000m2. Comprehensive sensors are used, including Gray and RGB stereo cameras, spinning and MEMS 3D LiDARs, and low-cost and industrial-grade IMUs, all of which are well calibrated and hardware-synchronized. An all-terrain wheeled robot is employed for data collection, traversing through thick woods, riversides, narrow trails, bridges, and grasslands, which are scarce in previous resources. This yields 33 short and long sequences, forming 17.1km trajectories in total. Excitedly, both highly-accurate ego-motions and 3D map ground truth are provided, along with fine-annotated vision semantics. We firmly believe that our dataset can advance robot navigation and sensor fusion research to a higher level.

arxiv情報

著者 Yuanzhi Liu,Yujia Fu,Minghui Qin,Yufeng Xu,Baoxin Xu,Fengdong Chen,Bart Goossens,Poly Z. H. Sun,Hongwei Yu,Chun Liu,Long Chen,Wei Tao,Hui Zhao
発行日 2024-03-02 05:13:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク