MGTR: Multi-Granular Transformer for Motion Prediction with LiDAR

要約

動き予測は、さまざまなタイプの移動エージェントが関与する非常に不確実で複雑なシナリオを処理するため、自動運転システムの不可欠なコンポーネントとなっています。
この論文では、さまざまな種類のトラフィック エージェントに対してさまざまな粒度でコンテキスト機能を活用するエンコーダ/デコーダ ネットワークである、Multi-Granular TRansformer (MGTR) フレームワークを提案します。
MGTR の機能をさらに強化するために、既製の LiDAR 特徴抽出ツールから LiDAR セマンティック特徴を組み込むことで、LiDAR 点群データを活用します。
Waymo Open Dataset モーション予測ベンチマークで MGTR を評価し、提案された手法が最先端のパフォーマンスを達成し、リーダーボードで 1 位にランクされたことを示します (https://waymo.com/open/challenges/2023/motion-prediction/)
)。

要約(オリジナル)

Motion prediction has been an essential component of autonomous driving systems since it handles highly uncertain and complex scenarios involving moving agents of different types. In this paper, we propose a Multi-Granular TRansformer (MGTR) framework, an encoder-decoder network that exploits context features in different granularities for different kinds of traffic agents. To further enhance MGTR’s capabilities, we leverage LiDAR point cloud data by incorporating LiDAR semantic features from an off-the-shelf LiDAR feature extractor. We evaluate MGTR on Waymo Open Dataset motion prediction benchmark and show that the proposed method achieved state-of-the-art performance, ranking 1st on its leaderboard (https://waymo.com/open/challenges/2023/motion-prediction/).

arxiv情報

著者 Yiqian Gan,Hao Xiao,Yizhe Zhao,Ethan Zhang,Zhe Huang,Xin Ye,Lingting Ge
発行日 2024-02-05 19:56:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク