USTC FLICAR: A Sensors Fusion Dataset of LiDAR-Inertial-Camera for Heavy-duty Autonomous Aerial Work Robots

要約

この論文では、大型自律型高所作業ロボットの位置特定とマッピング、および作業空間の正確な 3D 再構成の同時開発に特化した USTC FLICAR データセットを紹介します。
近年、多数の公開データセットが自動運転車や無人航空機 (UAV) の進歩において重要な役割を果たしています。
ただし、これら 2 つのプラットフォームは空中作業ロボットとは異なります。UAV は積載量に制限があるのに対し、自動車は 2 次元の移動に制限されます。
このギャップを埋めるために、私たちはバケツトラックをベースにした「Giraffe」マッピング ロボットを作成しました。このロボットには、適切に調整され同期されたさまざまなセンサー(4 つの 3D LiDAR、2 つのステレオ カメラ、2 つの単眼カメラ、慣性測定ユニット (IMU) が装備されています)
)、および GNSS/INS システム。
レーザートラッカーを使用して、ミリメートルレベルのグラウンドトゥルースの位置を記録します。
また、比較のためのデータを収集するために、その地上双子であるマッピング ロボット「Okapi」も作成します。
提案されたデータセットは、典型的な自動運転センシング スイートを空中シーンに拡張し、自動運転認識システムとバケット トラックを組み合わせて多用途の自律型空中作業プラットフォームを作成できる可能性を示しています。
さらに、Segment Anything Model (SAM) に基づいて、時間次元と空間次元の両方でマルチモーダル連続データに対してきめの細かいセマンティック セグメンテーション アノテーションを提供する Semantic FLICAR データセットを生成します。
データセットは https://ustc-flicar.github.io/ からダウンロードできます。

要約(オリジナル)

In this paper, we present the USTC FLICAR Dataset, which is dedicated to the development of simultaneous localization and mapping and precise 3D reconstruction of the workspace for heavy-duty autonomous aerial work robots. In recent years, numerous public datasets have played significant roles in the advancement of autonomous cars and unmanned aerial vehicles (UAVs). However, these two platforms differ from aerial work robots: UAVs are limited in their payload capacity, while cars are restricted to two-dimensional movements. To fill this gap, we create the ‘Giraffe’ mapping robot based on a bucket truck, which is equipped with a variety of well-calibrated and synchronized sensors: four 3D LiDARs, two stereo cameras, two monocular cameras, Inertial Measurement Units (IMUs), and a GNSS/INS system. A laser tracker is used to record the millimeter-level ground truth positions. We also make its ground twin, the ‘Okapi’ mapping robot, to gather data for comparison. The proposed dataset extends the typical autonomous driving sensing suite to aerial scenes, demonstrating the potential of combining autonomous driving perception systems with bucket trucks to create a versatile autonomous aerial working platform. Moreover, based on the Segment Anything Model (SAM), we produce the Semantic FLICAR dataset, which provides fine-grained semantic segmentation annotations for multimodal continuous data in both temporal and spatial dimensions. The dataset is available for download at: https://ustc-flicar.github.io/.

arxiv情報

著者 Ziming Wang,Yujiang Liu,Yifan Duan,Xingchen Li,Xinran Zhang,Jianmin Ji,Erbao Dong,Yanyong Zhang
発行日 2023-07-27 09:37:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク