要約
人間のデモンストレーションを使用して行動運転モデルを学習するアルゴリズムの開発により、シミュレーションがますます現実的になりました。
一般に、このようなモデルは、手動で注釈を付けた高精細 (HD) 地図から取得した走行可能な車線などの道路コンテキスト情報を活用することで、制御されているすべてのエージェントの軌道を共同で予測する方法を学習します。
最近の研究では、これらのモデルがトレーニングに利用できる人間のデータの量を増やすことで大きな恩恵を受けることが示されています。
ただし、新しい場所ごとに必要な HD マップへの手動アノテーションが、人的交通データセットを効率的にスケールアップする際のボトルネックとなります。
最小限の注釈を必要とし、豊富な道路コンテキスト情報を提供するドローン鳥瞰図画像ベースの地図 (DBM) 表現を提案します。
DBM を画像テクスチャベースの微分可能レンダリング モジュールとして微分可能ドライビング シミュレーターに組み込むことで、マルチエージェントの軌道予測を評価します。
私たちの結果は、ラスター化された HD マップでトレーニングされたモデルと比較して、DBM 表現を使用した場合の競合するマルチエージェント軌道予測パフォーマンスを示しています。
要約(オリジナル)
The development of algorithms that learn behavioral driving models using human demonstrations has led to increasingly realistic simulations. In general, such models learn to jointly predict trajectories for all controlled agents by exploiting road context information such as drivable lanes obtained from manually annotated high-definition (HD) maps. Recent studies show that these models can greatly benefit from increasing the amount of human data available for training. However, the manual annotation of HD maps which is necessary for every new location puts a bottleneck on efficiently scaling up human traffic datasets. We propose a drone birdview image-based map (DBM) representation that requires minimal annotation and provides rich road context information. We evaluate multi-agent trajectory prediction using the DBM by incorporating it into a differentiable driving simulator as an image-texture-based differentiable rendering module. Our results demonstrate competitive multi-agent trajectory prediction performance when using our DBM representation as compared to models trained with rasterized HD maps.
arxiv情報
著者 | Yunpeng Liu,Vasileios Lioutas,Jonathan Wilder Lavington,Matthew Niedoba,Justice Sefas,Setareh Dabiri,Dylan Green,Xiaoxuan Liang,Berend Zwartsenberg,Adam Ścibior,Frank Wood |
発行日 | 2023-05-19 17:48:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google