Multi-modal Fusion Technology based on Vehicle Information: A Survey

要約

マルチモーダル フュージョンは、自動運転システムの認識の基本的なタスクであり、近年多くの学者の関心を集めています。
現在のマルチモーダル フュージョン手法は、主にカメラ データと LiDAR データに焦点を当てていますが、加速度、車両速度、回転角度など、車両の下部センサーによって提供される運動学的情報にはほとんど注意を払っていません。
これらの情報は、複雑な外部シーンの影響を受けないため、より堅牢で信頼性が高くなります。
本稿では、車両底部情報の既存の応用分野と関連する方法の研究の進展、および底部情報に基づくマルチモーダル融合方法を紹介します。
また、車両底面情報データセットの関連情報を詳細に紹介し、できるだけ早く調査を容易にしました。
さらに、自動運転タスクのためのマルチモーダル融合技術の新しい将来のアイデアを提案し、車両下部情報のさらなる活用を促進します。

要約(オリジナル)

Multi-modal fusion is a basic task of autonomous driving system perception, which has attracted many scholars’ interest in recent years. The current multi-modal fusion methods mainly focus on camera data and LiDAR data, but pay little attention to the kinematic information provided by the bottom sensors of the vehicle, such as acceleration, vehicle speed, angle of rotation. These information are not affected by complex external scenes, so it is more robust and reliable. In this paper, we introduce the existing application fields of vehicle bottom information and the research progress of related methods, as well as the multi-modal fusion methods based on bottom information. We also introduced the relevant information of the vehicle bottom information data set in detail to facilitate the research as soon as possible. In addition, new future ideas of multi-modal fusion technology for autonomous driving tasks are proposed to promote the further utilization of vehicle bottom information.

arxiv情報

著者 Yan Gong,Jianli Lu,Jiayi Wu,Wenzhuo Liu
発行日 2022-11-11 09:25:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク