BotanicGarden: A high-quality and large-scale robot navigation dataset in challenging natural environments

要約

長年にわたるモバイル ロボット工学と自律ナビゲーションの急速な発展は、SLAM やローカリゼーション タスクなどのテストとアップグレードのための公開データセットによって主に強化されています。
印象的なデモとベンチマーク結果が得られ、成熟した技術フレームワークが確立されていることを示しています。
ただし、現実世界の展開の観点から見ると、特に大規模で GNSS が拒否され、テクスチャが単調で構造化されていないシナリオでは、困難な環境における堅牢性という重大な欠陥が依然として存在します。
このような範囲での緊急の検証要求を満たすために、私たちは 48,000 平方メートルを超える大規模な植物園に、斬新で挑戦的なロボット ナビゲーション データセットを構築しました。
高解像度/レートのステレオ Gray&RGB カメラ、回転および前方 3D LiDAR、低コストの産業グレード IMU などの包括的なセンサーが採用されており、これらはすべて適切に校正され、正確にハードウェア同期されています。
全地形対応車輪付きロボットは、センサー スイートを搭載し、走行距離データを提供するように構成されています。
合計 32 の長短シーケンス、230 万枚の画像が収集されており、これまでのリソースではほとんど登場しなかった、鬱蒼とした森、川沿い、狭い道、橋、草原などのシーンがカバーされています。
興味深いことに、高精度のエゴモーションと 3D マップのグラウンド トゥルースの両方が、詳細な注釈付きのビジョン セマンティクスとともに提供されます。
私たちの目標は、ロボットナビゲーションとセンサーフュージョンの研究をより高いレベルに進めるために、高品質のデータセットを提供することです。

要約(オリジナル)

The rapid developments of mobile robotics and autonomous navigation over the years are largely empowered by public datasets for testing and upgrading, such as SLAM and localization tasks. Impressive demos and benchmark results have arisen, indicating the establishment of a mature technical framework. However, from the view point of real-world deployments, there are still critical defects of robustness in challenging environments, especially in large-scale, GNSS-denied, textural-monotonous, and unstructured scenarios. To meet the pressing validation demands in such scope, we build a novel challenging robot navigation dataset in a large botanic garden of more than 48000m2. Comprehensive sensors are employed, including high-res/rate stereo Gray&RGB cameras, rotational and forward 3D LiDARs, and low-cost and industrial-grade IMUs, all of which are well calibrated and accurately hardware-synchronized. An all-terrain wheeled robot is configured to mount the sensor suite and provide odometry data. A total of 32 long and short sequences of 2.3 million images are collected, covering scenes of thick woods, riversides, narrow paths, bridges, and grasslands that rarely appeared in previous resources. Excitedly, both highly-accurate ego-motions and 3D map ground truth are provided, along with fine-annotated vision semantics. Our goal is to contribute a high-quality dataset to advance robot navigation and sensor fusion research to a higher level.

arxiv情報

著者 Yuanzhi Liu,Yujia Fu,Minghui Qin,Yufeng Xu,Baoxin Xu,Fengdong Chen,Bart Goossens,Hongwei Yu,Chun Liu,Long Chen,Wei Tao,Hui Zhao
発行日 2023-06-25 06:11:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク