要約
既存の最高性能の自動運転システムは通常、信頼性の高いシーンの理解のためにマルチモーダル融合戦略に依存しています。
ただし、この設計は、モダリティ固有の強みを見落とし、最終的にモデルのパフォーマンスを妨げるため、根本的に制限されています。
この制限に対処するために、この研究では、個々のモダリティごとの表現を学習および維持できるようにする新しいモダリティ相互作用戦略を導入し、知覚パイプライン全体でその固有の特性を活用できるようにします。
提案された戦略の有効性を実証するために、マルチモーダル表現インタラクション エンコーダーとマルチモーダル予測インタラクション デコーダーを特徴とするマルチモーダル インタラクション フレームワークである DeepInteraction++ を設計します。
具体的には、エンコーダは、個別のモダリティ固有の表現間の情報交換と統合のための特殊なアテンション操作を備えたデュアルストリーム Transformer として実装されます。
当社のマルチモーダル表現学習には、オブジェクト中心の正確なサンプリング ベースの特徴アライメントと、より困難な計画タスクに不可欠なグローバルな高密度情報拡散の両方が組み込まれています。
デコーダは、統一されたモダリティに依存しない方法で別々の表現からの情報を交互に集約することで予測を反復的に改良し、マルチモーダルな予測相互作用を実現するように設計されています。
広範な実験により、3D オブジェクト検出とエンドツーエンドの自動運転タスクの両方において、提案されたフレームワークの優れたパフォーマンスが実証されました。
私たちのコードは https://github.com/fudan-zvg/DeepInteraction で入手できます。
要約(オリジナル)
Existing top-performance autonomous driving systems typically rely on the multi-modal fusion strategy for reliable scene understanding. This design is however fundamentally restricted due to overlooking the modality-specific strengths and finally hampering the model performance. To address this limitation, in this work, we introduce a novel modality interaction strategy that allows individual per-modality representations to be learned and maintained throughout, enabling their unique characteristics to be exploited during the whole perception pipeline. To demonstrate the effectiveness of the proposed strategy, we design DeepInteraction++, a multi-modal interaction framework characterized by a multi-modal representational interaction encoder and a multi-modal predictive interaction decoder. Specifically, the encoder is implemented as a dual-stream Transformer with specialized attention operation for information exchange and integration between separate modality-specific representations. Our multi-modal representational learning incorporates both object-centric, precise sampling-based feature alignment and global dense information spreading, essential for the more challenging planning task. The decoder is designed to iteratively refine the predictions by alternately aggregating information from separate representations in a unified modality-agnostic manner, realizing multi-modal predictive interaction. Extensive experiments demonstrate the superior performance of the proposed framework on both 3D object detection and end-to-end autonomous driving tasks. Our code is available at https://github.com/fudan-zvg/DeepInteraction.
arxiv情報
著者 | Zeyu Yang,Nan Song,Wei Li,Xiatian Zhu,Li Zhang,Philip H. S. Torr |
発行日 | 2024-08-09 14:04:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google