要約
自車両の軌道を予測することは、自動運転システムの重要な要素です。
現在の最先端の方法は通常、ディープ ニューラル ネットワーク (DNN) と逐次モデルに依存して、将来の軌道予測のために正面画像を処理します。
ただし、これらのアプローチは、シーン内のオブジェクトの特徴に影響を与える遠近感の問題に苦戦することがよくあります。
これに対処するために、私たちは鳥瞰図 (BEV) 視点の使用を推奨します。これは、空間関係とオブジェクトの均質性を捉える上で独自の利点を提供します。
私たちの取り組みでは、グラフ ニューラル ネットワーク (GNN) と位置エンコーディングを活用して BEV 内のオブジェクトを表現し、従来の DNN ベースの方法と比較して競争力のあるパフォーマンスを実現しました。
BEV ベースのアプローチでは、フロントビュー画像に固有の詳細な情報が一部失われますが、シーン内のオブジェクト間の関係が効果的にキャプチャされるグラフとして表現することで BEV データを強化することで、このバランスをとります。
要約(オリジナル)
Predicting the trajectory of an ego vehicle is a critical component of autonomous driving systems. Current state-of-the-art methods typically rely on Deep Neural Networks (DNNs) and sequential models to process front-view images for future trajectory prediction. However, these approaches often struggle with perspective issues affecting object features in the scene. To address this, we advocate for the use of Bird’s Eye View (BEV) perspectives, which offer unique advantages in capturing spatial relationships and object homogeneity. In our work, we leverage Graph Neural Networks (GNNs) and positional encoding to represent objects in a BEV, achieving competitive performance compared to traditional DNN-based methods. While the BEV-based approach loses some detailed information inherent to front-view images, we balance this by enriching the BEV data by representing it as a graph where relationships between the objects in a scene are captured effectively.
arxiv情報
著者 | Sushil Sharma,Aryan Singh,Ganesh Sistu,Mark Halton,Ciarán Eising |
発行日 | 2024-01-10 15:50:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google