Two-Stage Context-Aware model for Predicting Future Motion of Dynamic Agents

要約

タイトル:動的エージェントの将来の動きを予測するための2つのステージのコンテキストに敏感なモデル
要約:
– 動的エージェントの将来の動きを予測することは、自律ロボットの運動計画において安全性を確保し、リスクを評価するために極めて重要です。
– この研究では、シーンと相互作用コンテキストの両方を効果的に活用するために、初期軌跡提案ネットワークと軌跡精製ネットワークのカスケードを使用した、R-Predと呼ばれる2段階の運動予測方法を提案しています。
– 初期の軌跡提案ネットワークは、将来の軌跡分布のMモードに対応するM軌跡提案を生成します。
– 軌跡精製ネットワークは、1)チューブクエリシーンアテンション(TQSA)と2)提案レベルの相互作用アテンション(PIA)メカニズムを使用して、それぞれのM提案を強化します。
– TQSAは、関心のある軌跡提案の周囲からプールされたローカルなシーンコンテキストの特徴をまとめるためにチューブクエリを使用します。
– PIAは、近隣のエージェントからの距離によって選択された一群の軌跡提案を使用して相互作用をモデル化することにより、軌跡提案をさらに向上させます。
– ArgoverseとnuScenesデータセットで実験を行った結果、提案された精製ネットワークは単一ステージベースラインと比較して著しい性能向上を提供し、R-Predはベンチマークの一部のカテゴリで最先端の性能を発揮することが示されています。

要約(オリジナル)

Predicting the future motion of dynamic agents is of paramount importance to ensuring safety and assessing risks in motion planning for autonomous robots. In this study, we propose a two-stage motion prediction method, called R-Pred, designed to effectively utilize both scene and interaction context using a cascade of the initial trajectory proposal and trajectory refinement networks. The initial trajectory proposal network produces M trajectory proposals corresponding to the M modes of the future trajectory distribution. The trajectory refinement network enhances each of the M proposals using 1) tube-query scene attention (TQSA) and 2) proposal-level interaction attention (PIA) mechanisms. TQSA uses tube-queries to aggregate local scene context features pooled from proximity around trajectory proposals of interest. PIA further enhances the trajectory proposals by modeling inter-agent interactions using a group of trajectory proposals selected by their distances from neighboring agents. Our experiments conducted on Argoverse and nuScenes datasets demonstrate that the proposed refinement network provides significant performance improvements compared to the single-stage baseline and that R-Pred achieves state-of-the-art performance in some categories of the benchmarks.

arxiv情報

著者 Sehwan Choi,Jungho Kim,Junyong Yun,Jun Won Choi
発行日 2023-04-04 09:19:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク