要約
都市環境の複雑さの増加は、効果的な集団認識システムの可能性を強調しています。
これらの課題に対処するために、エゴベヒクルとサポートインフラストラクチャの両方から同期されたセンサーデータを提供する大規模なマルチシーンデータセットであるCoopScenesデータセットを提示します。データセットは、10 Hzで104分間の空間的および時間的に同期したデータを提供します。
わずか2.3ミリ秒の平均偏差で競争力のある同期を実現します。
さらに、データセットには、エゴベヒクルおよびインフラストラクチャセンサーからのポイントクラウドデータの正確な登録の新しい手順、自動アノテーションパイプライン、および顔とナンバープレートのオープンソース匿名化パイプラインが含まれています。
100の操作を備えた9つの多様なシーンをカバーするデータセットには、ドイツのシュトゥットガルト地域の3つの都市にわたる公共交通機関、都市建設現場、高速田舎の道路などのシナリオが特徴です。
完全なデータセットは527 GBのデータになり、.4MSE形式で提供されているため、包括的な開発キットから簡単にアクセスできます。
正確で大規模なデータを提供することにより、CoopScenesは、機械学習ベースのアプローチを含む、都市のモビリティのための集団的認識、リアルタイムセンサー登録、および協力的なインテリジェントシステムの研究を促進します。
要約(オリジナル)
The increasing complexity of urban environments has underscored the potential of effective collective perception systems. To address these challenges, we present the CoopScenes dataset, a large-scale, multi-scene dataset that provides synchronized sensor data from both the ego-vehicle and the supporting infrastructure.The dataset provides 104 minutes of spatially and temporally synchronized data at 10 Hz, resulting in 62,000 frames. It achieves competitive synchronization with a mean deviation of only 2.3 ms. Additionally the dataset includes a novel procedure for precise registration of point cloud data from the ego-vehicle and infrastructure sensors, automated annotation pipelines, and an open-source anonymization pipeline for faces and license plates. Covering nine diverse scenes with 100 maneuvers, the dataset features scenarios such as public transport hubs, city construction sites, and high-speed rural roads across three cities in the Stuttgart region, Germany. The full dataset amounts to 527 GB of data and is provided in the .4mse format, making it easily accessible through our comprehensive development kit. By providing precise, large-scale data, CoopScenes facilitates research in collective perception, real-time sensor registration, and cooperative intelligent systems for urban mobility, including machine learning-based approaches.
arxiv情報
著者 | Marcel Vosshans,Alexander Baumann,Matthias Drueppel,Omar Ait-Aider,Youcef Mezouar,Thao Dang,Markus Enzweiler |
発行日 | 2025-04-30 12:09:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google