DOLPHINS: Dataset for Collaborative Perception enabled Harmonious and Interconnected Self-driving

要約

Vehicle-to-Everything(V2X)ネットワークにより、自動運転での協調的知覚が可能になりました。これは、ブラインドゾーンや長距離知覚などのスタンドアロンインテリジェンスの根本的な欠陥に対する有望なソリューションです。
ただし、データセットの欠如は、協調的知覚アルゴリズムの開発を大幅に妨げています。
この作業では、相互接続のための画期的なベンチマークプラットフォームを提供する、新しいシミュレートされた大規模なさまざまなシナリオのマルチビューマルチモダリティ自動運転データセットとして、DOLPHINS:協調的知覚を可能にする調和的で相互接続された自動運転のデータセットをリリースします
自動運転。
DOLPHINSは、現在のデータセットよりも6つの次元で優れています。時間的に整列された画像と車両と道路側ユニット(RSU)の両方からの点群により、車両間(V2V)と車両からインフラストラクチャ(V2I)の両方に基づく協調認識が可能になります。
動的な気象条件を伴う6つの典型的なシナリオは、最も多様な相互接続された自動運転データセットを作成します。
重要な領域とすべてのオブジェクトを完全にカバーする、細心の注意を払って選択された視点。
42376フレームと292549オブジェクト、および対応する3D注釈、地理的位置、およびキャリブレーションは、協調的知覚のための最大のデータセットを構成します。
フルHD画像と64ラインLiDARは、十分な詳細を備えた高解像度データを構築します。
よく整理されたAPIとオープンソースコードにより、DOLPHINSの拡張性が保証されます。
また、DOLPHINSでの2D検出、3D検出、およびマルチビュー協調知覚タスクのベンチマークを構築します。
実験結果は、V2X通信によるrawレベルの融合スキームが、RSUが存在する場合に、精度を向上させるだけでなく、車両に高価なLiDAR機器の必要性を減らすのに役立ち、相互接続された自動運転車の人気を加速させる可能性があることを示しています。
DOLPHINSがhttps://dolphins-dataset.net/で利用できるようになりました。

要約(オリジナル)

Vehicle-to-Everything (V2X) network has enabled collaborative perception in autonomous driving, which is a promising solution to the fundamental defect of stand-alone intelligence including blind zones and long-range perception. However, the lack of datasets has severely blocked the development of collaborative perception algorithms. In this work, we release DOLPHINS: Dataset for cOllaborative Perception enabled Harmonious and INterconnected Self-driving, as a new simulated large-scale various-scenario multi-view multi-modality autonomous driving dataset, which provides a ground-breaking benchmark platform for interconnected autonomous driving. DOLPHINS outperforms current datasets in six dimensions: temporally-aligned images and point clouds from both vehicles and Road Side Units (RSUs) enabling both Vehicle-to-Vehicle (V2V) and Vehicle-to-Infrastructure (V2I) based collaborative perception; 6 typical scenarios with dynamic weather conditions make the most various interconnected autonomous driving dataset; meticulously selected viewpoints providing full coverage of the key areas and every object; 42376 frames and 292549 objects, as well as the corresponding 3D annotations, geo-positions, and calibrations, compose the largest dataset for collaborative perception; Full-HD images and 64-line LiDARs construct high-resolution data with sufficient details; well-organized APIs and open-source codes ensure the extensibility of DOLPHINS. We also construct a benchmark of 2D detection, 3D detection, and multi-view collaborative perception tasks on DOLPHINS. The experiment results show that the raw-level fusion scheme through V2X communication can help to improve the precision as well as to reduce the necessity of expensive LiDAR equipment on vehicles when RSUs exist, which may accelerate the popularity of interconnected self-driving vehicles. DOLPHINS is now available on https://dolphins-dataset.net/.

arxiv情報

著者 Ruiqing Mao,Jingyu Guo,Yukuan Jia,Yuxuan Sun,Sheng Zhou,Zhisheng Niu
発行日 2022-07-15 17:07:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク