DeepEMplanner: An EM Motion Planner with Iterative Interactions

要約

動作計画は、多くの場合、周囲のエージェントの予測、環境理解、歴史的および将来の状況に基づいて、一連の有効な軌道を見つける計算問題です。
また、エージェントが他のエージェントの意図や遭遇する環境に応じて次の行動を継続的に計画し、段階的なアクションを通じて最終目標をさらに達成するゲームとして見ることもできます。
動的な計画とインタラクションのプロセスをモデル化するために、段階的なインタラクションを考慮してきめの細かい行動学習を行う新しいフレームワーク DeepEMplanner を提案します。
自車両は、エージェントからの段階的な期待と今後の道路状況に基づいて、最終的な運転結果に到達するために、各ステップの動作を最大化します。
一方、エージェントも同じ哲学に従い、遭遇する環境や自我や他のエージェントからの期待の下で段階的な行動を最大化します。
当社の DeepEMplanner は、期待プロセスと最大化プロセスをインターリーブすることにより、自己回帰的な方法でエゴ、エージェント、および動的環境の間の相互作用をモデル化します。
さらに、対話をより適切にモデル化するために、階層的な動的キーオブジェクトに注意を払って、エゴからエージェント、エゴからマップ、およびエゴからBEVへの対話メカニズムを設計します。
nuScenes ベンチマークの実験では、私たちのアプローチが最先端の結果を達成することが示されています。

要約(オリジナル)

Motion planning is a computational problem that finds a sequence of valid trajectories, often based on surrounding agents’ forecasting, environmental understanding, and historical and future contexts. It can also be viewed as a game in which agents continuously plan their next move according to other agents’ intentions and the encountering environment, further achieving their ultimate goals through incremental actions. To model the dynamic planning and interaction process, we propose a novel framework, DeepEMplanner, which takes the stepwise interaction into account for fine-grained behavior learning. The ego vehicle maximizes each step motion to reach its eventual driving outcome based on the stepwise expectation from agents and its upcoming road conditions. On the other hand, the agents also follow the same philosophy to maximize their stepwise behavior under the encountering environment and the expectations from ego and other agents. Our DeepEMplanner models the interactions among ego, agents, and the dynamic environment in an autoregressive manner by interleaving the Expectation and Maximization processes. Further, we design ego-to-agents, ego-to-map, and ego-to-BEV interaction mechanisms with hierarchical dynamic key objects attention to better model the interactions. Experiments on the nuScenes benchmark show that our approach achieves state-of-the-art results.

arxiv情報

著者 Zhili Chen,Maosheng Ye,Shuangjie Xu,Tongyi Cao,Qifeng Chen
発行日 2023-11-14 11:53:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク