Road Genome: A Topology Reasoning Benchmark for Scene Understanding in Autonomous Driving

要約

【タイトル】自動運転システムの場面理解のためのトポロジー推論ベンチマーク:ロードゲノム

【要約】自動運転車にとって、複雑な交通環境を理解することは非常に重要です。自動運転技術に関連する既存のベンチマークは、主に知覚問題としてシーン理解を捉えており、例えばバニラ検出やセグメンテーション手法でレーンラインを認識する方法などです。このように、認識パイプラインは、特に高精度地図のサポートがない場合、自動車が正しい方向に運転するために十分な情報を提供しないと主張しています。例えば、複雑な交差点で間違った信号に従うことは、大惨事を引き起こす可能性があります。そこで、作者たちは、Road Genome(OpenLane-V2)を導入することで、コミュニティの関心を知覚の向こう側に移し、シーン構造のトポロジー推論のタスクに一歩踏み出すことを意図しています。Road Genomeの目的は、交通要素とレーンの間の認識されたエンティティの関係を調査することによって、シーン構造を理解することです。既存のデータセットを基に構築されたRoad Genomeは、多様なリアルワールドのシナリオからキャプチャーされた2,000のマルチビュー画像シーケンスで構成されます。データは高品質な手作業チェックで注釈を付けます。Road Genomeの本質を構成する3つのサブタスクがあります。OpenLaneから引き継いだ3Dレーン検出も含まれています。今後、トップティアの会場でチャレンジを開催する予定です。

要約(オリジナル)

Understanding the complex traffic environment is crucial for self-driving vehicles. Existing benchmarks in autonomous driving mainly cast scene understanding as perception problems, e.g., perceiving lanelines with vanilla detection or segmentation methods. As such, we argue that the perception pipeline provides limited information for autonomous vehicles to drive in the right way, especially without the aid of high-definition (HD) map. For instance, following the wrong traffic signal at a complicated crossroad would lead to a catastrophic incident. By introducing Road Genome (OpenLane-V2), we intend to shift the community’s attention and take a step further beyond perception – to the task of topology reasoning for scene structure. The goal of Road Genome is to understand the scene structure by investigating the relationship of perceived entities among traffic elements and lanes. Built on top of prevailing datasets, the newly minted benchmark comprises 2,000 sequences of multi-view images captured from diverse real-world scenarios. We annotate data with high-quality manual checks in the loop. Three subtasks compromise the gist of Road Genome, including the 3D lane detection inherited from OpenLane. We have/will host Challenges in the upcoming future at top-tiered venues.

arxiv情報

著者 Huijie Wang,Zhenbo Liu,Yang Li,Tianyu Li,Li Chen,Chonghao Sima,Yuting Wang,Shengyin Jiang,Feng Wen,Hang Xu,Ping Luo,Junchi Yan,Wei Zhang,Jun Yao,Yu Qiao,Hongyang Li
発行日 2023-04-20 16:31:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク