Dur360BEV: A Real-world 360-degree Single Camera Dataset and Benchmark for Bird-Eye View Mapping in Autonomous Driving

要約

Dur360Bevは、高解像度の128チャンネル3D LIDARとRTK-REFINED GNSS/INSシステムを装備した新しい球状カメラの自律運転データセットと、単一の球体カメラのみを使用してBirdeye-View(BEV)マップを生成するように設計されたベンチマークアーキテクチャを紹介します。
このデータセットとベンチマークは、特に複数のパースペクティブカメラの代わりに単一の360度カメラを使用することでハードウェアの複雑さを減らすことにより、自律運転におけるBEV生成の課題に対処します。
ベンチマークアーキテクチャ内で、球面画像と2Dから3Dから3Dから3Dを投影するための洗練されたサンプリング戦略を活用する新しい球面イメージからBEVモジュールを提案します。
私たちのアプローチには、BEVセグメンテーションタスクでしばしば遭遇する極端なクラスの不均衡に対処するために特に適応した焦点損失の革新的なアプリケーションも含まれており、DUR360BEVデータセットのセグメンテーションパフォーマンスの改善を示しています。
結果は、ベンチマークがセンサーのセットアップを簡素化するだけでなく、競争力のあるパフォーマンスも達成することを示しています。

要約(オリジナル)

We present Dur360BEV, a novel spherical camera autonomous driving dataset equipped with a high-resolution 128-channel 3D LiDAR and a RTK-refined GNSS/INS system, along with a benchmark architecture designed to generate Bird-Eye-View (BEV) maps using only a single spherical camera. This dataset and benchmark address the challenges of BEV generation in autonomous driving, particularly by reducing hardware complexity through the use of a single 360-degree camera instead of multiple perspective cameras. Within our benchmark architecture, we propose a novel spherical-image-to-BEV module that leverages spherical imagery and a refined sampling strategy to project features from 2D to 3D. Our approach also includes an innovative application of focal loss, specifically adapted to address the extreme class imbalance often encountered in BEV segmentation tasks, that demonstrates improved segmentation performance on the Dur360BEV dataset. The results show that our benchmark not only simplifies the sensor setup but also achieves competitive performance.

arxiv情報

著者 Wenke E,Chao Yuan,Li Li,Yixin Sun,Yona Falinie A. Gaus,Amir Atapour-Abarghouei,Toby P. Breckon
発行日 2025-03-06 05:59:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク