要約
自動運転車は、環境と効果的に対話し、安全な操縦を計画するために、マルチモーダルな動き予測に依存しています。
複数の交通エージェントのシーン全体の動きモードを予測するためのアテンションベースのモデルである SceneMotion を紹介します。
私たちのモデルは、新しい潜在コンテキスト モジュールを使用して、ローカル エージェント中心の埋め込みをシーン全体の予測に変換します。
このモジュールは、複数のエージェント中心の埋め込みからシーン全体の潜在空間を学習し、共同予測とインタラクション モデリングを可能にします。
Waymo Open Interaction Prediction Challenge での競争力のあるパフォーマンスは、私たちのアプローチの有効性を示しています。
さらに、将来のウェイポイントを時間と空間でクラスター化し、エージェント間の相互作用を定量化します。
すべてのモードをマージし、各モードを個別に分析して、どのクラスターが相互作用を通じて解決されるか、または競合が発生するかを判断します。
私たちの実装は https://github.com/kit-mrt/future-motion から入手できます。
要約(オリジナル)
Self-driving vehicles rely on multimodal motion forecasts to effectively interact with their environment and plan safe maneuvers. We introduce SceneMotion, an attention-based model for forecasting scene-wide motion modes of multiple traffic agents. Our model transforms local agent-centric embeddings into scene-wide forecasts using a novel latent context module. This module learns a scene-wide latent space from multiple agent-centric embeddings, enabling joint forecasting and interaction modeling. The competitive performance in the Waymo Open Interaction Prediction Challenge demonstrates the effectiveness of our approach. Moreover, we cluster future waypoints in time and space to quantify the interaction between agents. We merge all modes and analyze each mode independently to determine which clusters are resolved through interaction or result in conflict. Our implementation is available at: https://github.com/kit-mrt/future-motion
arxiv情報
著者 | Royden Wagner,Ömer Sahin Tas,Marlon Steiner,Fabian Konstantinidis,Hendrik Königshof,Marvin Klemp,Carlos Fernandez,Christoph Stiller |
発行日 | 2024-11-29 17:35:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google