Vehicle Trajectory Prediction on Highways Using Bird Eye View Representations and Deep Learning

要約

本研究では、効率的な鳥瞰図表現と畳み込みニューラルネットワークを用いて、高速道路シナリオにおける車両軌跡を予測する新しい方法を提案する。車両の位置、運動履歴、道路形状、車両の相互作用は、基本的な視覚表現を用いて容易に予測モデルに含まれる。U-netモデルを予測カーネルとして選択し、画像間の回帰アプローチを用いてシーンの将来の視覚的表現を生成する。生成された画像表現から車両位置を抽出する方法を実装し、サブピクセルの解像度を達成した。この手法は、車載センサーのデータセットであるPREVENTIONデータセットを用いて学習・評価された。異なるネットワーク構成とシーン表現が評価された。本研究では、線形終端層と車両のガウス表現を用いた6深度レベルのU-netが最も性能の良い構成であることが分かった。また、車線標識の使用は予測性能の向上をもたらさないことがわかった。予測軌跡の長さが2.0秒の場合、平均予測誤差は縦座標で0.47メートル、横座標で0.38メートル、最終予測誤差はそれぞれ0.76メートル、0.53メートルであった。この予測誤差はベースライン手法と比較して最大50%低くなっています。

要約(オリジナル)

This work presents a novel method for predicting vehicle trajectories in highway scenarios using efficient bird’s eye view representations and convolutional neural networks. Vehicle positions, motion histories, road configuration, and vehicle interactions are easily included in the prediction model using basic visual representations. The U-net model has been selected as the prediction kernel to generate future visual representations of the scene using an image-to-image regression approach. A method has been implemented to extract vehicle positions from the generated graphical representations to achieve subpixel resolution. The method has been trained and evaluated using the PREVENTION dataset, an on-board sensor dataset. Different network configurations and scene representations have been evaluated. This study found that U-net with 6 depth levels using a linear terminal layer and a Gaussian representation of the vehicles is the best performing configuration. The use of lane markings was found to produce no improvement in prediction performance. The average prediction error is 0.47 and 0.38 meters and the final prediction error is 0.76 and 0.53 meters for longitudinal and lateral coordinates, respectively, for a predicted trajectory length of 2.0 seconds. The prediction error is up to 50% lower compared to the baseline method.

arxiv情報

著者 Rubén Izquierdo,Álvaro Quintanar,David Fernández Llorca,Iván García Daza,Noelia Hernández,Ignacio Parra,Miguel Ángel Sotelo
発行日 2022-07-04 13:39:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV パーマリンク