The OPNV Data Collection: A Dataset for Infrastructure-Supported Perception Research with Focus on Public Transportation

要約

この論文では、特に公共交通機関の領域における協力的な認識と相互作用を強化することを目的とした、インテリジェント車両とインフラストラクチャの相互運用性に関する研究を推進するように設計された新しいデータセットに関する私たちのビジョンと進行中の作業について説明します。
自車両データを中心とした従来のデータセットとは異なり、このアプローチは、それぞれカメラ、LiDAR、GNSS を備えた固定センサー タワーと移動車両の両方を包含し、車両にはさらに慣性ナビゲーション システムが含まれています。
当社のセットアップは包括的なキャリブレーションと時刻同期を備えており、複雑で動的なシーンの研究に不可欠なシームレスで正確なセンサー データの融合を保証します。
公共交通機関に重点を置いたこのデータセットは、小型公共バスの特性を反映して、バス停留所の操作やバス専用レーンでの運転などのシーンを含めることを目標としています。
新しいデータセット用のオープンソースの「.4mse」ファイル形式を調査キットとともに紹介します。
このキットは、エゴモーション補償や LiDAR からカメラへの投影などのツールを提供し、インテリジェントな車両とインフラストラクチャの統合に関する高度な研究を可能にします。
私たちのアプローチには注釈は含まれていません。
ただし、最先端のパブリック リポジトリから自動的に生成されたラベルを実装する予定です。
いくつかの点はまだ議論の余地があり、コミュニティからのタイムリーなフィードバックをいただければ幸いです。
1 つのデータ フレームのスニーク プレビューは、Google Colab ノートブックで利用できるようになります。
さらに、関連する GitHub リポジトリを使用してコメントや提案を収集します。

要約(オリジナル)

This paper we present our vision and ongoing work for a novel dataset designed to advance research into the interoperability of intelligent vehicles and infrastructure, specifically aimed at enhancing cooperative perception and interaction in the realm of public transportation. Unlike conventional datasets centered on ego-vehicle data, this approach encompasses both a stationary sensor tower and a moving vehicle, each equipped with cameras, LiDARs, and GNSS, while the vehicle additionally includes an inertial navigation system. Our setup features comprehensive calibration and time synchronization, ensuring seamless and accurate sensor data fusion crucial for studying complex, dynamic scenes. Emphasizing public transportation, the dataset targets to include scenes like bus station maneuvers and driving on dedicated bus lanes, reflecting the specifics of small public buses. We introduce the open-source ‘.4mse’ file format for the new dataset, accompanied by a research kit. This kit provides tools such as ego-motion compensation or LiDAR-to-camera projection enabling advanced research on intelligent vehicle-infrastructure integration. Our approach does not include annotations; however, we plan to implement automatically generated labels sourced from state-of-the-art public repositories. Several aspects are still up for discussion, and timely feedback from the community would be greatly appreciated. A sneak preview on one data frame will be available at a Google Colab Notebook. Moreover, we will use the related GitHub Repository to collect remarks and suggestions.

arxiv情報

著者 Marcel Vosshans,Alexander Baumann,Matthias Drueppel,Omar Ait-Aider,Ralf Woerner,Youcef Mezouar,Thao Dang,Markus Enzweiler
発行日 2024-07-11 08:00:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク