HDGT: Heterogeneous Driving Graph Transformer for Multi-Agent Trajectory Prediction via Scene Encoding

要約

運転シーンをベクトル表現にエンコードすることは、自動運転にとって不可欠なタスクであり、下流のタスクに利益をもたらすことができます。
軌道予測。
運転シーンには、さまざまなタイプのオブジェクト (エージェント、車線、交通標識) などの異質な要素が含まれることが多く、オブジェクト間の意味論的な関係は豊富で多様です。
一方、要素間の相対性も存在します。これは、空間関係が相対的な概念であり、グローバル座標系ではなく自己中心的な方法でエンコードする必要があることを意味します。
これらの観察に基づいて、私たちは、さまざまな種類のノードとエッジを備えた異種グラフとして運転シーンをモデル化するバックボーンであるヘテロジニアス ドライビング グラフ トランスフォーマー (HDGT) を提案します。
異種グラフ構築では、多様な意味関係に従って異なるタイプのノードを接続します。
空間関係エンコーディングの場合、ノードとそのインエッジの座標は、ローカルのノード中心座標系にあります。
グラフ ニューラル ネットワーク (GNN) の集約モジュールについては、入力の異質な性質に適合するように階層的な方法でトランスフォーマー構造を採用しています。
実験結果は、HDGT が INTERACTION Prediction Challenge と Waymo Open Motion Challenge での軌道予測タスクにおいて最先端のパフォーマンスを達成することを示しています。

要約(オリジナル)

Encoding a driving scene into vector representations has been an essential task for autonomous driving that can benefit downstream tasks e.g. trajectory prediction. The driving scene often involves heterogeneous elements such as the different types of objects (agents, lanes, traffic signs) and the semantic relations between objects are rich and diverse. Meanwhile, there also exist relativity across elements, which means that the spatial relation is a relative concept and need be encoded in a ego-centric manner instead of in a global coordinate system. Based on these observations, we propose Heterogeneous Driving Graph Transformer (HDGT), a backbone modelling the driving scene as a heterogeneous graph with different types of nodes and edges. For heterogeneous graph construction, we connect different types of nodes according to diverse semantic relations. For spatial relation encoding, the coordinates of the node as well as its in-edges are in the local node-centric coordinate system. For the aggregation module in the graph neural network (GNN), we adopt the transformer structure in a hierarchical way to fit the heterogeneous nature of inputs. Experimental results show that HDGT achieves state-of-the-art performance for the task of trajectory prediction, on INTERACTION Prediction Challenge and Waymo Open Motion Challenge.

arxiv情報

著者 Xiaosong Jia,Penghao Wu,Li Chen,Yu Liu,Hongyang Li,Junchi Yan
発行日 2023-07-20 08:41:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO パーマリンク