要約
近年、自律走行のための鳥瞰(BEV)知覚が大きな注目を集めているが、その理由の一つは、BEV表現がマルチセンサーデータの融合を容易にするためである。これにより、BEVセグメンテーションを含む様々な知覚タスクが可能になり、車両の軌道計画に使用できる環境の簡潔なビューが得られる。しかし、この表現は既存のデータセットでは十分にサポートされておらず、新しいデータセットの作成には時間がかかる。この問題に対処するため、本稿では、SimBEVを紹介する。SimBEVは、広範囲に設定可能で拡張可能なランダム合成データ生成ツールであり、正確なBEVのグランドトゥルースデータを取得するために複数のソースからの情報を組み込み、包括的なセンサーアレイをサポートし、BEVのセグメンテーションと3Dオブジェクト検出を含む様々な知覚タスクを可能にする。我々は、SimBEVを使用して、多様な運転シナリオからの注釈付き知覚データの大規模なコレクションであるSimBEVデータセットを作成する。
要約(オリジナル)
Bird’s-eye view (BEV) perception for autonomous driving has garnered significant attention in recent years, in part because BEV representation facilitates the fusion of multi-sensor data. This enables a variety of perception tasks including BEV segmentation, a concise view of the environment that can be used to plan a vehicle’s trajectory. However, this representation is not fully supported by existing datasets, and creation of new datasets can be a time-consuming endeavor. To address this problem, in this paper we introduce SimBEV, an extensively configurable and scalable randomized synthetic data generation tool that incorporates information from multiple sources to capture accurate BEV ground truth data, supports a comprehensive array of sensors, and enables a variety of perception tasks including BEV segmentation and 3D object detection. We use SimBEV to create the SimBEV dataset, a large collection of annotated perception data from diverse driving scenarios.
arxiv情報
著者 | Goodarz Mehr,Azim Eskandarian |
発行日 | 2025-02-04 00:00:06+00:00 |
arxivサイト | arxiv_id(pdf) |