要約
現実世界の多様な条件下でロボットの自律性の効率を確保するには、動作アルゴリズムのパフォーマンスと堅牢性をベンチマークするために高品質の異種データセットが不可欠です。
現在のベンチマークは主に都市の地形、特に道路上の自動運転に焦点を当てており、地下トンネル、自然野原、現代の屋内空間など、複合的に劣化し、植生が密集し、ダイナミックで特徴がまばらな環境は過小評価されています。
このギャップを埋めるために、高照度、霧、雨、一日のさまざまな時間帯の視界ゼロなど、さまざまな環境や条件で収集された大規模なマルチモーダル データセットである EnvoDat を導入します。
全体として、EnvoDat には、13 のシーンからの 26 のシーケンス、10 のセンシング モダリティ、1.9 TB を超えるデータ、および 82 を超えるオブジェクトおよび地形クラスに対する 89,000 を超えるきめの細かいポリゴンベースのアノテーションが含まれています。
SLAM および教師あり学習アルゴリズムのベンチマーク、およびマルチモーダル ビジョン モデルの微調整をサポートするさまざまな形式で EnvoDat を後処理しました。
EnvoDat を使用することで、当社は条件が非常に厳しい地域における環境に強いロボットの自律性に貢献します。
データセットおよびその他の関連リソースには、https://linusnep.github.io/EnvoDat/ を通じてアクセスできます。
要約(オリジナル)
To ensure the efficiency of robot autonomy under diverse real-world conditions, a high-quality heterogeneous dataset is essential to benchmark the operating algorithms’ performance and robustness. Current benchmarks predominantly focus on urban terrains, specifically for on-road autonomous driving, leaving multi-degraded, densely vegetated, dynamic and feature-sparse environments, such as underground tunnels, natural fields, and modern indoor spaces underrepresented. To fill this gap, we introduce EnvoDat, a large-scale, multi-modal dataset collected in diverse environments and conditions, including high illumination, fog, rain, and zero visibility at different times of the day. Overall, EnvoDat contains 26 sequences from 13 scenes, 10 sensing modalities, over 1.9TB of data, and over 89K fine-grained polygon-based annotations for more than 82 object and terrain classes. We post-processed EnvoDat in different formats that support benchmarking SLAM and supervised learning algorithms, and fine-tuning multimodal vision models. With EnvoDat, we contribute to environment-resilient robotic autonomy in areas where the conditions are extremely challenging. The datasets and other relevant resources can be accessed through https://linusnep.github.io/EnvoDat/.
arxiv情報
著者 | Linus Nwankwo,Bjoern Ellensohn,Vedant Dave,Peter Hofer,Jan Forstner,Marlene Villneuve,Robert Galler,Elmar Rueckert |
発行日 | 2024-10-29 16:36:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google