HoloVIC: Large-scale Dataset and Benchmark for Multi-Sensor Holographic Intersection and Vehicle-Infrastructure Cooperative

要約

近年、自動運転の分野では、Vehicle-to-Everything(V2X)が人気のトピックです。
車両インフラ連携 (VIC) は重要な研究分野の 1 つになります。
死角や遮蔽物などの交通状況は複雑であるため、シングルビューの路側感知システムの認識能力は大幅に制限されます。
路側認識の精度をさらに高め、車両側により良い情報を提供するために、この論文では、HoloVICと呼ばれる大規模なマルチセンサーホログラフィック車両インフラ連携データセットを構築するために、さまざまなレイアウトのホログラフィック交差点を構築しました。
私たちのデータセットには 3 つの異なるタイプのセンサー (カメラ、ライダー、魚眼) が含まれており、異なる交差点に基づいて 4 つのセンサー レイアウトを採用しています。
各交差点には同期データを取得するために 6 ~ 18 個のセンサーが装備されています。
自動運転車は VIC データを収集するためにこれらの交差点を通過します。
HoloVIC には、さまざまなセンサーからの合計 100k+ の同期フレームが含まれています。
さらに、カメラ、魚眼、ライダーに基づいて 3D 境界ボックスに注釈を付けました。
また、異なるデバイスおよび連続したフレームにわたる同じオブジェクトの ID を順番に関連付けます。
HoloVIC に基づいて、関連研究の発展を促進するために 4 つのタスクを策定しました。
これらのタスクのベンチマークも提供します。

要約(オリジナル)

Vehicle-to-everything (V2X) is a popular topic in the field of Autonomous Driving in recent years. Vehicle-infrastructure cooperation (VIC) becomes one of the important research area. Due to the complexity of traffic conditions such as blind spots and occlusion, it greatly limits the perception capabilities of single-view roadside sensing systems. To further enhance the accuracy of roadside perception and provide better information to the vehicle side, in this paper, we constructed holographic intersections with various layouts to build a large-scale multi-sensor holographic vehicle-infrastructure cooperation dataset, called HoloVIC. Our dataset includes 3 different types of sensors (Camera, Lidar, Fisheye) and employs 4 sensor-layouts based on the different intersections. Each intersection is equipped with 6-18 sensors to capture synchronous data. While autonomous vehicles pass through these intersections for collecting VIC data. HoloVIC contains in total on 100k+ synchronous frames from different sensors. Additionally, we annotated 3D bounding boxes based on Camera, Fisheye, and Lidar. We also associate the IDs of the same objects across different devices and consecutive frames in sequence. Based on HoloVIC, we formulated four tasks to facilitate the development of related research. We also provide benchmarks for these tasks.

arxiv情報

著者 Cong Ma,Lei Qiao,Chengkai Zhu,Kai Liu,Zelong Kong,Qing Li,Xueqi Zhou,Yuheng Kan,Wei Wu
発行日 2024-03-26 17:14:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク