要約
自動運転車の認識モジュールは、環境を理解するためにマルチセンサー システムに依存しています。
深層学習の最近の進歩により、多感覚測定を統合して知覚能力を強化するアプローチが急速に開発されました。
この論文では、自動運転システムの知覚モジュールに適用される最新のディープラーニング統合技術を調査し、「何を、どのように、いつ統合するか」に基づいて統合アプローチを分類します。
マルチビュー、マルチモダリティ、マルチフレームの 3 つの次元に基づいて、統合の新しい分類法が提案されています。
統合操作とその長所と短所が要約されており、既存の手法の制限を軽減できる「理想的な」データ統合アプローチの特性について新たな洞察が得られます。
数百の関連論文を検討した後、この調査は最適なデータ統合アプローチの主要な機能についての議論で終わります。
要約(オリジナル)
The perception module of self-driving vehicles relies on a multi-sensor system to understand its environment. Recent advancements in deep learning have led to the rapid development of approaches that integrate multi-sensory measurements to enhance perception capabilities. This paper surveys the latest deep learning integration techniques applied to the perception module in autonomous driving systems, categorizing integration approaches based on ‘what, how, and when to integrate’. A new taxonomy of integration is proposed, based on three dimensions: multi-view, multi-modality, and multi-frame. The integration operations and their pros and cons are summarized, providing new insights into the properties of an ‘ideal’ data integration approach that can alleviate the limitations of existing methods. After reviewing hundreds of relevant papers, this survey concludes with a discussion of the key features of an optimal data integration approach.
arxiv情報
著者 | Xi Zhu,Likang Wang,Caifa Zhou,Xiya Cao,Yue Gong,Lei Chen |
発行日 | 2023-07-13 04:04:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google