R-Pred: Two-Stage Motion Prediction Via Tube-Query Attention-Based Trajectory Refinement

要約

動的エージェントの将来の動きを予測することは、安全性を確保したり、自律型ロボットの動作計画におけるリスクを評価したりするために最も重要です。
この論文では、初期軌道提案ネットワークと軌道改良ネットワークのカスケードを使用して、シーンと相互作用コンテキストの両方を効果的に利用する、R-Pred と呼ばれる 2 段階の動き予測方法を提案します。
初期軌道提案ネットワークは、将来の軌道分布の M モードに対応する M 個の軌道提案を生成します。
軌道改良ネットワークは、1) チューブ クエリ シーン アテンション (TQSA) と 2) プロポーザル レベルのインタラクション アテンション (PIA) を使用して、M 個の提案のそれぞれを強化します。
TQSA は、チューブ クエリを使用して、関心のある軌道提案の周囲からプールされたローカル シーン コンテキスト フィーチャを集約します。
PIA は、隣接するエージェントからの距離に基づいて選択された軌道提案のグループを使用して、エージェント間の相互作用をモデル化することにより、軌道提案をさらに強化します。
Argoverse および nuScenes データセットで実施された実験では、提案された改良ネットワークが単一ステージのベースラインと比較して大幅なパフォーマンスの向上を提供し、R-Pred がベンチマークのいくつかのカテゴリで最先端のパフォーマンスを達成することが実証されました。

要約(オリジナル)

Predicting the future motion of dynamic agents is of paramount importance to ensure safety or assess risks in motion planning for autonomous robots. In this paper, we propose a two-stage motion prediction method, referred to as R-Pred, that effectively utilizes both the scene and interaction context using a cascade of the initial trajectory proposal network and the trajectory refinement network. The initial trajectory proposal network produces M trajectory proposals corresponding to M modes of a future trajectory distribution. The trajectory refinement network enhances each of M proposals using 1) the tube-query scene attention (TQSA) and 2) the proposal-level interaction attention (PIA). TQSA uses tube-queries to aggregate the local scene context features pooled from proximity around the trajectory proposals of interest. PIA further enhances the trajectory proposals by modeling inter-agent interactions using a group of trajectory proposals selected based on their distances from neighboring agents. Our experiments conducted on the Argoverse and nuScenes datasets demonstrate that the proposed refinement network provides significant performance improvements compared to the single-stage baseline and that R-Pred achieves state-of-the-art performance in some categories of the benchmark.

arxiv情報

著者 Sehwan Choi,Jungho Kim,Junyong Yun,Jun Won Choi
発行日 2022-12-26 07:01:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク