要約
隣接するエージェントの正確で堅牢な軌道予測は、複雑なシーンを移動する自動運転車両にとって重要です。
近年提案されているほとんどの方法は、複雑な相互作用のエンコードに強みがあるため、ディープラーニングに基づいています。
ただし、過去の観測に大きく依存し、まばらなサンプルからの一時的および不測の相互作用を効果的に捉えることができないため、妥当でない予測が生成されることがよくあります。
この論文では、マルチスケールの相互作用によって形作られた動きを予測するという課題に対処するために、マルチエージェントの軌跡予測のためのディープラーニング (DL) と強化学習 (RL) の階層的なハイブリッドフレームワークを提案します。
DL 段階では、トラフィック シーンが複数の中規模の異種グラフに分割され、これに基づいて Transformer スタイルの GNN が採用され、中間およびグローバル レベルで異種相互作用がエンコードされます。
RL 段階では、DL 段階で予測された重要な未来ポイントを利用して、交通シーンを局所的なサブシーンに分割します。
運動計画手順をエミュレートして軌道予測を生成するために、微視的な相互作用の支配的な影響下で運動を計画するために、車両運動モデルに組み込まれたトランスフォーマーベースの近接ポリシー最適化 (PPO) が考案されています。
多目的報酬は、エージェント中心の精度とシーンごとの互換性のバランスを取るように設計されています。
実験結果は、私たちの提案が Argoverse 予測ベンチマークの最先端に一致することを示しています。
また、階層的な学習フレームワークがマルチスケールの相互作用を捉え、予測された軌道の実現可能性とコンプライアンスを改善することも、視覚化された結果によって明らかにされています。
要約(オリジナル)
Accurate and robust trajectory prediction of neighboring agents is critical for autonomous vehicles traversing in complex scenes. Most methods proposed in recent years are deep learning-based due to their strength in encoding complex interactions. However, unplausible predictions are often generated since they rely heavily on past observations and cannot effectively capture the transient and contingency interactions from sparse samples. In this paper, we propose a hierarchical hybrid framework of deep learning (DL) and reinforcement learning (RL) for multi-agent trajectory prediction, to cope with the challenge of predicting motions shaped by multi-scale interactions. In the DL stage, the traffic scene is divided into multiple intermediate-scale heterogenous graphs based on which Transformer-style GNNs are adopted to encode heterogenous interactions at intermediate and global levels. In the RL stage, we divide the traffic scene into local sub-scenes utilizing the key future points predicted in the DL stage. To emulate the motion planning procedure so as to produce trajectory predictions, a Transformer-based Proximal Policy Optimization (PPO) incorporated with a vehicle kinematics model is devised to plan motions under the dominant influence of microscopic interactions. A multi-objective reward is designed to balance between agent-centric accuracy and scene-wise compatibility. Experimental results show that our proposal matches the state-of-the-arts on the Argoverse forecasting benchmark. It’s also revealed by the visualized results that the hierarchical learning framework captures the multi-scale interactions and improves the feasibility and compliance of the predicted trajectories.
arxiv情報
著者 | Yujun Jiao,Mingze Miao,Zhishuai Yin,Chunyuan Lei,Xu Zhu,Linzhen Nie,Bo Tao |
発行日 | 2023-03-24 07:05:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google