要約
協調知覚は、自律走行車の能力を高め、交通安全を向上させるためにいくつかの利点をもたらす。車載センサーに加えて路側センサーを使用することで、信頼性が向上し、センサー範囲が広がる。外部センサーは、自動運転車により高い状況認識を提供し、オクルージョンを防止する。我々は、協調的3次元物体検出と追跡タスクのために、協調的マルチモーダル融合モデルであるCoopDet3Dと知覚データセットであるTUMTraf-V2Xを提案する。我々のデータセットには、5つの路側センサーと4つの車載センサーから得られた2,000のラベル付き点群と5,000のラベル付き画像が含まれる。このデータセットには、トラックIDを持つ30k個の3Dボックスと、正確なGPSおよびIMUデータが含まれる。我々は8つのカテゴリをラベル付けし、交通違反、ヒヤリハット、追い越し、Uターンなど、困難な運転操作を伴うオクルージョンのシナリオをカバーした。複数の実験を通して、我々のCoopDet3Dカメラ-LiDARフュージョンモデルは、車両カメラ-LiDARフュージョンモデルと比較して、+14.36の3D mAPの増加を達成することを示す。最後に、我々のデータセット、モデル、ラベリングツール、開発キットをウェブサイト(https://tum-traffic-dataset.github.io/tumtraf-v2x)で公開します。
要約(オリジナル)
Cooperative perception offers several benefits for enhancing the capabilities of autonomous vehicles and improving road safety. Using roadside sensors in addition to onboard sensors increases reliability and extends the sensor range. External sensors offer higher situational awareness for automated vehicles and prevent occlusions. We propose CoopDet3D, a cooperative multi-modal fusion model, and TUMTraf-V2X, a perception dataset, for the cooperative 3D object detection and tracking task. Our dataset contains 2,000 labeled point clouds and 5,000 labeled images from five roadside and four onboard sensors. It includes 30k 3D boxes with track IDs and precise GPS and IMU data. We labeled eight categories and covered occlusion scenarios with challenging driving maneuvers, like traffic violations, near-miss events, overtaking, and U-turns. Through multiple experiments, we show that our CoopDet3D camera-LiDAR fusion model achieves an increase of +14.36 3D mAP compared to a vehicle camera-LiDAR fusion model. Finally, we make our dataset, model, labeling tool, and dev-kit publicly available on our website: https://tum-traffic-dataset.github.io/tumtraf-v2x.
arxiv情報
著者 | Walter Zimmer,Gerhard Arya Wardana,Suren Sritharan,Xingcheng Zhou,Rui Song,Alois C. Knoll |
発行日 | 2024-03-02 21:29:04+00:00 |
arxivサイト | arxiv_id(pdf) |