要約
正確で信頼性の高い空間的情報とモーション情報は、自律運転システムで極めて重要な役割を果たします。
ただし、オブジェクトレベルの知覚モデルは、オープンシナリオカテゴリの処理に苦労しており、正確な内因性ジオメトリがありません。
一方、占有ベースのクラスに依存しない方法は、シーンの表現に優れていますが、物理学の一貫性を確保し、交通参加者間の相互作用の重要性を無視し、正確で信頼できる動きを学習するモデルの能力を妨げます。
このペーパーでは、インスタンス機能をバードアイビュー(BEV)スペースに組み込んだLego-Motionという名前のクラスに依存しないモーション予測タスクの新しい占有率モデリングフレームワークを紹介します。
私たちのモデルには、(1)BEVエンコーダー、(2)相互作用が整合されたインスタンスエンコーダー、(3)インスタンスが強化されたBEVエンコーダーを含み、モデル内の相互作用関係と物理学の一貫性の両方を改善し、それにより環境のより正確で堅牢な理解を確保します。
Nuscenes Datasetでの広範な実験は、この方法が最新のパフォーマンスを達成し、既存のアプローチを上回ることを示しています。
さらに、私たちのフレームワークの有効性は、高度なFMCW Lidarベンチマークで検証され、その実用的な適用性と一般化機能を紹介します。
コードは、さらなる研究を促進するために公開されます。
要約(オリジナル)
Accurate and reliable spatial and motion information plays a pivotal role in autonomous driving systems. However, object-level perception models struggle with handling open scenario categories and lack precise intrinsic geometry. On the other hand, occupancy-based class-agnostic methods excel in representing scenes but fail to ensure physics consistency and ignore the importance of interactions between traffic participants, hindering the model’s ability to learn accurate and reliable motion. In this paper, we introduce a novel occupancy-instance modeling framework for class-agnostic motion prediction tasks, named LEGO-Motion, which incorporates instance features into Bird’s Eye View (BEV) space. Our model comprises (1) a BEV encoder, (2) an Interaction-Augmented Instance Encoder, and (3) an Instance-Enhanced BEV Encoder, improving both interaction relationships and physics consistency within the model, thereby ensuring a more accurate and robust understanding of the environment. Extensive experiments on the nuScenes dataset demonstrate that our method achieves state-of-the-art performance, outperforming existing approaches. Furthermore, the effectiveness of our framework is validated on the advanced FMCW LiDAR benchmark, showcasing its practical applicability and generalization capabilities. The code will be made publicly available to facilitate further research.
arxiv情報
著者 | Kangan Qian,Jinyu Miao,Ziang Luo,Zheng Fu,and Jinchen Li,Yining Shi,Yunlong Wang,Kun Jiang,Mengmeng Yang,Diange Yang |
発行日 | 2025-03-10 14:26:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google