要約
レーングラフの推定は、自動運転の観点から長年の問題です。
これまでの研究では、大規模な手作業で注釈が付けられたレーン グラフに依存することでこの問題を解決することを目的としており、このタスクを解決するためのモデルのトレーニングにデータのボトルネックが生じていました。
この制限を克服するために、交通参加者の動作パターンを車線グラフの注釈として使用することを提案します。
AutoGraph アプローチでは、事前トレーニングされたオブジェクト トラッカーを使用して、車両やトラックなどの交通参加者のトラックレットを収集します。
これらのトラックレットの位置に基づいて、人間による監視を必要とせず、オーバーヘッド RGB 画像のみを使用して初期位置から後続のレーン グラフを予測します。
次の段階では、個々の後続予測を一貫したレーン グラフに集約する方法を示します。
私たちは、UrbanLaneGraph データセットに対するアプローチの有効性を実証し、広範な定量的および定性的評価を実行し、AutoGraph が手作業で注釈を付けられたグラフ データでトレーニングされたモデルと同等であることを示しています。
モデルとデータセットは、レビュー用に編集された時点で利用可能になります。
要約(オリジナル)
Lane graph estimation is a long-standing problem in the context of autonomous driving. Previous works aimed at solving this problem by relying on large-scale, hand-annotated lane graphs, introducing a data bottleneck for training models to solve this task. To overcome this limitation, we propose to use the motion patterns of traffic participants as lane graph annotations. In our AutoGraph approach, we employ a pre-trained object tracker to collect the tracklets of traffic participants such as vehicles and trucks. Based on the location of these tracklets, we predict the successor lane graph from an initial position using overhead RGB images only, not requiring any human supervision. In a subsequent stage, we show how the individual successor predictions can be aggregated into a consistent lane graph. We demonstrate the efficacy of our approach on the UrbanLaneGraph dataset and perform extensive quantitative and qualitative evaluations, indicating that AutoGraph is on par with models trained on hand-annotated graph data. Model and dataset will be made available at redacted-for-review.
arxiv情報
著者 | Jannik Zürn,Ingmar Posner,Wolfram Burgard |
発行日 | 2023-06-27 12:11:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google