要約
この論文では、RGB データ、3D 点群、IMU、および GPS データを特徴とする、ローマで収集された視覚と知覚の研究データセットを紹介します。
自律ロボット工学とコンピューター ビジョンの研究を推進するために、ビジュアル オドメトリと SLAM を対象とした新しいベンチマークを導入します。
この研究は、環境の多様性、運動パターン、センサー周波数などのいくつかの問題に同時に対処することで、既存のデータセットを補完します。
最新のデバイスを使用し、時間的同期に対処しながらセンサーの固有および外部を正確に校正するための効果的な手順を示します。
録音中は、複数階の建物、庭園、都市部、高速道路のシナリオをカバーします。
ハンドヘルドデータ収集と車ベースのデータ収集を組み合わせたセットアップでは、あらゆるロボット (四足歩行、クアッドローター、自動運転車) をシミュレートできます。
このデータセットには、バンドル調整を通じて LiDAR 点群を使用して RTK-GPS 推定を改良する新しい方法論に基づく、正確な 6-dof グラウンド トゥルースが含まれています。
トレーニングとテストに分かれたすべてのシーケンスには、Web サイトからアクセスできます。
要約(オリジナル)
This paper presents a vision and perception research dataset collected in Rome, featuring RGB data, 3D point clouds, IMU, and GPS data. We introduce a new benchmark targeting visual odometry and SLAM, to advance the research in autonomous robotics and computer vision. This work complements existing datasets by simultaneously addressing several issues, such as environment diversity, motion patterns, and sensor frequency. It uses up-to-date devices and presents effective procedures to accurately calibrate the intrinsic and extrinsic of the sensors while addressing temporal synchronization. During recording, we cover multi-floor buildings, gardens, urban and highway scenarios. Combining handheld and car-based data collections, our setup can simulate any robot (quadrupeds, quadrotors, autonomous vehicles). The dataset includes an accurate 6-dof ground truth based on a novel methodology that refines the RTK-GPS estimate with LiDAR point clouds through Bundle Adjustment. All sequences divided in training and testing are accessible through our website.
arxiv情報
著者 | Leonardo Brizi,Emanuele Giacomini,Luca Di Giammarino,Simone Ferrari,Omar Salem,Lorenzo De Rebotti,Giorgio Grisetti |
発行日 | 2024-04-17 12:34:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google