MMDR: A Result Feature Fusion Object Detection Approach for Autonomous System

要約

タイトル:自律システム向けの結果特徴融合物体検出手法であるMMDR

要約:

– 自律システムにおいて、2Dおよび3Dの物体検出が広く利用されている。
– 最近の研究では、この問題に対処するための多様な手法が中心となっている。
– 本論文では、結果特徴レベルの融合に基づく多様性融合手法が提案されている。
– この手法は、単一モダリティソースから生成される結果特徴を利用し、下流のタスクのためにそれらを融合することを可能にする。
– この手法に基づいて、新しい後処理ネットワークが提案され、それは単一モダリティの結果を特徴として利用する。
– この提案手法は、2Dおよび3Dの物体検出タスクの両方に対応するように設計されている。
– 以前の多様なモデルに比べて、本論文で提案された手法は後段で特徴融合を行うため、単一モダリティの深層レベルの特徴をより効果的に表現することができる。
– さらに、MMDRモデルは、特徴融合段階で浅いグローバル特徴を組み込むことにより、背景情報や全体の入力を知覚するための能力を持ち、欠損検出などの問題を回避することができる。

要約(オリジナル)

Object detection has been extensively utilized in autonomous systems in recent years, encompassing both 2D and 3D object detection. Recent research in this field has primarily centered around multimodal approaches for addressing this issue.In this paper, a multimodal fusion approach based on result feature-level fusion is proposed. This method utilizes the outcome features generated from single modality sources, and fuses them for downstream tasks.Based on this method, a new post-fusing network is proposed for multimodal object detection, which leverages the single modality outcomes as features. The proposed approach, called Multi-Modal Detector based on Result features (MMDR), is designed to work for both 2D and 3D object detection tasks. Compared to previous multimodal models, the proposed approach in this paper performs feature fusion at a later stage, enabling better representation of the deep-level features of single modality sources. Additionally, the MMDR model incorporates shallow global features during the feature fusion stage, endowing the model with the ability to perceive background information and the overall input, thereby avoiding issues such as missed detections.

arxiv情報

著者 Wendong Zhang
発行日 2023-04-19 12:28:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CV パーマリンク