CASPNet++: Joint Multi-Agent Motion Prediction

要約

道路利用者の将来の動きの予測は、先進運転支援システム (ADAS) をサポートする上で重要なタスクです。
自動運転 (AD) にとって、安全な運転操作の計画と実行を可能にする上で、さらに重要な役割を果たします。
私たちの以前の研究である Context-Aware Scene Prediction Network (CASPNet) に基づいて、改良されたシステム CASPNet++ が提案されています。
この作業では、インタラクション モデリングとシーン理解をさらに強化し、時空間グリッドを使用してシーン内のすべての道路利用者の共同予測をサポートし、将来の占有率をモデル化することに焦点を当てています。
さらに、インスタンスベースの出力ヘッドが導入され、対象のエージェントにマルチモーダルな軌跡を提供します。
広範な定量的および定性的分析により、HD マップ、レーダー検出、Lidar セグメンテーションなどの多様な環境入力ソースを利用および融合する際の CASPNet++ のスケーラビリティを実証します。
都市に焦点を当てた予測データセット nuScenes でテストされた CASPNet++ は、最先端のパフォーマンスに達しました。
モデルはテスト車両に導入され、適度な計算リソースを使用してリアルタイムで実行されます。

要約(オリジナル)

The prediction of road users’ future motion is a critical task in supporting advanced driver-assistance systems (ADAS). It plays an even more crucial role for autonomous driving (AD) in enabling the planning and execution of safe driving maneuvers. Based on our previous work, Context-Aware Scene Prediction Network (CASPNet), an improved system, CASPNet++, is proposed. In this work, we focus on further enhancing the interaction modeling and scene understanding to support the joint prediction of all road users in a scene using spatiotemporal grids to model future occupancy. Moreover, an instance-based output head is introduced to provide multi-modal trajectories for agents of interest. In extensive quantitative and qualitative analysis, we demonstrate the scalability of CASPNet++ in utilizing and fusing diverse environmental input sources such as HD maps, Radar detection, and Lidar segmentation. Tested on the urban-focused prediction dataset nuScenes, CASPNet++ reaches state-of-the-art performance. The model has been deployed in a testing vehicle, running in real-time with moderate computational resources.

arxiv情報

著者 Maximilian Schäfer,Kun Zhao,Anton Kummert
発行日 2023-08-15 13:09:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク