DRoPE: Directional Rotary Position Embedding for Efficient Agent Interaction Modeling

要約

エージェント相互作用の正確で効率的なモデリングは、自律運転システムの中核である軌道生成に不可欠です。
シーン中心、エージェント中心、およびクエリ中心のフレームワーク、それぞれが明確な利点と欠点を提示し、精度、計算時間、およびメモリ効率の間で不可能な三角形を作成します。
この制限を破るために、元々自然言語処理で開発された回転位置埋め込み(ロープ)の新しい適応である方向回転位置埋め込み(DROPE)を提案します。
かなりの空間の複雑さをもたらす従来の相対位置埋め込み(RPE)とは異なり、ロープは複雑さを明示的に増加させることなく相対位置を効率的にエンコードしますが、周期性による角度情報の取り扱いには固有の制限に直面します。
Dropeは、均一なアイデンティティスカラーをロープの2D回転変換に導入し、回転角を現実的なエージェントの見出しに合わせて相対的な角度情報を自然にエンコードすることにより、この制限を克服します。
Dropeの正確性と効率性を理論的に分析し、軌道の生成の精度、時間の複雑さ、および空間の複雑さを同時に最適化する能力を実証します。
経験的評価さまざまな最先端の軌道生成モデルと比較して、Dropeの優れたパフォーマンスを確認し、スペースの複雑さを大幅に減らし、理論的な健全性と実用的な有効性の両方を示しています。
ビデオドキュメントは、https://drope-traj.github.io/で入手できます。

要約(オリジナル)

Accurate and efficient modeling of agent interactions is essential for trajectory generation, the core of autonomous driving systems. Existing methods, scene-centric, agent-centric, and query-centric frameworks, each present distinct advantages and drawbacks, creating an impossible triangle among accuracy, computational time, and memory efficiency. To break this limitation, we propose Directional Rotary Position Embedding (DRoPE), a novel adaptation of Rotary Position Embedding (RoPE), originally developed in natural language processing. Unlike traditional relative position embedding (RPE), which introduces significant space complexity, RoPE efficiently encodes relative positions without explicitly increasing complexity but faces inherent limitations in handling angular information due to periodicity. DRoPE overcomes this limitation by introducing a uniform identity scalar into RoPE’s 2D rotary transformation, aligning rotation angles with realistic agent headings to naturally encode relative angular information. We theoretically analyze DRoPE’s correctness and efficiency, demonstrating its capability to simultaneously optimize trajectory generation accuracy, time complexity, and space complexity. Empirical evaluations compared with various state-of-the-art trajectory generation models, confirm DRoPE’s good performance and significantly reduced space complexity, indicating both theoretical soundness and practical effectiveness. The video documentation is available at https://drope-traj.github.io/.

arxiv情報

著者 Jianbo Zhao,Taiyu Ban,Zhihao Liu,Hangning Zhou,Xiyang Wang,Qibin Zhou,Hailong Qin,Mu Yang,Lei Liu,Bin Li
発行日 2025-03-19 09:23:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク