要約
多様な現実世界の条件下でのロボットの自律性の効率を確保するために、高品質の不均一なデータセットは、動作アルゴリズムのパフォーマンスと堅牢性をベンチマークするために不可欠です。
現在のベンチマークは、主に都市の地形に焦点を当てています。特に、地下トンネル、自然畑、近代的な屋内スペースなど、多様で密集した植生、動的、機能型の環境を残して、路上での自律運転に焦点を当てています。
このギャップを埋めるために、1日のさまざまな時期に高い照明、霧、雨、ゼロの視界など、多様な環境や条件で収集された大規模なマルチモーダルデータセットであるEnvodatを紹介します。
全体として、Envodatには、13のシーンからの26のシーケンス、10センシングモダリティ、1.9TBを超えるデータ、および82を超えるオブジェクトおよび地形クラスの89Kを超えるファイングレインポリゴンベースの注釈が含まれています。
ベンチマークスラムと監視された学習アルゴリズム、および微調整マルチモーダルビジョンモデルをサポートするさまざまな形式でEnvodatを後処理しました。
Envodatを使用すると、条件が非常に困難な分野での環境抵抗力のあるロボットの自律性に貢献します。
データセットおよびその他の関連するリソースは、https://linusnep.github.io/envodat/からアクセスできます。
要約(オリジナル)
To ensure the efficiency of robot autonomy under diverse real-world conditions, a high-quality heterogeneous dataset is essential to benchmark the operating algorithms’ performance and robustness. Current benchmarks predominantly focus on urban terrains, specifically for on-road autonomous driving, leaving multi-degraded, densely vegetated, dynamic and feature-sparse environments, such as underground tunnels, natural fields, and modern indoor spaces underrepresented. To fill this gap, we introduce EnvoDat, a large-scale, multi-modal dataset collected in diverse environments and conditions, including high illumination, fog, rain, and zero visibility at different times of the day. Overall, EnvoDat contains 26 sequences from 13 scenes, 10 sensing modalities, over 1.9TB of data, and over 89K fine-grained polygon-based annotations for more than 82 object and terrain classes. We post-processed EnvoDat in different formats that support benchmarking SLAM and supervised learning algorithms, and fine-tuning multimodal vision models. With EnvoDat, we contribute to environment-resilient robotic autonomy in areas where the conditions are extremely challenging. The datasets and other relevant resources can be accessed through https://linusnep.github.io/EnvoDat/.
arxiv情報
著者 | Linus Nwankwo,Bjoern Ellensohn,Vedant Dave,Peter Hofer,Jan Forstner,Marlene Villneuve,Robert Galler,Elmar Rueckert |
発行日 | 2025-02-19 09:56:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google