要約
自動運転では、他の道路利用者の動きを正確に解釈し、その知識を活用して将来の軌道を予測することが重要です。
これは通常、地図データとさまざまなエージェントの追跡された軌跡を統合することによって実現されます。
多くの方法論がこの情報を各エージェントの単一の埋め込みに結合し、それを利用して将来の行動を予測します。
ただし、これらのアプローチには、エンコード処理中に正確な位置情報が失われる可能性があるという顕著な欠点があります。
エンコードには一般的なマップ情報が含まれています。
ただし、有効で一貫した軌道の生成は保証されません。
これにより、予測された軌道が実際の車線からずれる可能性があります。
このペーパーでは、予測された軌跡を実際の地図に投影し、これらの矛盾を修正し、より一貫性のある予測に導くように設計された新しい改良モジュールを紹介します。
この多用途モジュールは、幅広いアーキテクチャに簡単に組み込むことができます。
さらに、単一の統合された異種グラフ アテンション ネットワークでエージェントとその環境の間のすべての関係を処理する新しいシーン エンコーダを提案します。
このグラフのさまざまなエッジのアテンション値を分析することで、より説明可能な予測につながるニューラル ネットワークの内部動作についての独自の洞察を得ることができます。
要約(オリジナル)
In autonomous driving, accurately interpreting the movements of other road users and leveraging this knowledge to forecast future trajectories is crucial. This is typically achieved through the integration of map data and tracked trajectories of various agents. Numerous methodologies combine this information into a singular embedding for each agent, which is then utilized to predict future behavior. However, these approaches have a notable drawback in that they may lose exact location information during the encoding process. The encoding still includes general map information. However, the generation of valid and consistent trajectories is not guaranteed. This can cause the predicted trajectories to stray from the actual lanes. This paper introduces a new refinement module designed to project the predicted trajectories back onto the actual map, rectifying these discrepancies and leading towards more consistent predictions. This versatile module can be readily incorporated into a wide range of architectures. Additionally, we propose a novel scene encoder that handles all relations between agents and their environment in a single unified heterogeneous graph attention network. By analyzing the attention values on the different edges in this graph, we can gain unique insights into the neural network’s inner workings leading towards a more explainable prediction.
arxiv情報
著者 | Tobias Demmler,Andreas Tamke,Thao Dang,Karsten Haug,Lars Mikelsons |
発行日 | 2024-05-16 14:31:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google