要約
既存のモバイル ロボット データセットのほとんどは主に静的なシーンをキャプチャしており、動的環境でのロボットのパフォーマンスを評価するための有用性は限られています。
これに対処するために、動的なシーンを理解するために、THUD++ (清華大学動的) ロボット データセットと呼ばれる、モバイル ロボット指向の大規模屋内データセットを紹介します。
現在のデータセットには 13 の大規模な動的シナリオが含まれており、それぞれ実際のロボット プラットフォームと物理シミュレーション プラットフォームで収集された現実世界データと合成データの両方を組み合わせています。
RGB-D データセットは、90,000 を超える画像フレーム、静的および動的オブジェクトの 2,000 万個の 2D/3D バウンディング ボックス、カメラのポーズ、および IMU で構成されています。
軌跡データセットは、屋内シーンにおける 6,000 以上の歩行者の軌跡をカバーしています。
さらに、データセットは Unity3D ベースのシミュレーション プラットフォームで強化されているため、研究者はカスタム シーンを作成し、制御された環境でアルゴリズムをテストできます。
私たちは、3D オブジェクト検出、セマンティック セグメンテーション、再ローカリゼーション、歩行者軌跡予測、ナビゲーションなど、主流の屋内シーン理解タスク全体にわたって THUD++ の最先端の手法を評価します。
私たちの実験は、移動ロボットが屋内環境、特に複雑で混雑した動的なシーンで移動するときに遭遇する課題を浮き彫りにしています。
このデータセットを共有することで、モバイル ロボット アルゴリズムの開発とテストを加速し、現実世界のロボット アプリケーションに貢献することを目指しています。
要約(オリジナル)
Most existing mobile robotic datasets primarily capture static scenes, limiting their utility for evaluating robotic performance in dynamic environments. To address this, we present a mobile robot oriented large-scale indoor dataset, denoted as THUD++ (TsingHua University Dynamic) robotic dataset, for dynamic scene understanding. Our current dataset includes 13 large-scale dynamic scenarios, combining both real-world and synthetic data collected with a real robot platform and a physical simulation platform, respectively. The RGB-D dataset comprises over 90K image frames, 20M 2D/3D bounding boxes of static and dynamic objects, camera poses, and IMU. The trajectory dataset covers over 6,000 pedestrian trajectories in indoor scenes. Additionally, the dataset is augmented with a Unity3D-based simulation platform, allowing researchers to create custom scenes and test algorithms in a controlled environment. We evaluate state-of-the-art methods on THUD++ across mainstream indoor scene understanding tasks, e.g., 3D object detection, semantic segmentation, relocalization, pedestrian trajectory prediction, and navigation. Our experiments highlight the challenges mobile robots encounter in indoor environments, especially when navigating in complex, crowded, and dynamic scenes. By sharing this dataset, we aim to accelerate the development and testing of mobile robot algorithms, contributing to real-world robotic applications.
arxiv情報
| 著者 | Zeshun Li,Fuhao Li,Wanting Zhang,Zijie Zheng,Xueping Liu,Yongjin Liu,Long Zeng |
| 発行日 | 2024-12-11 04:37:15+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google