要約
視覚変圧器(VIT)は、グローバルな特徴を抽出する特別な能力により、合成開口レーダー(SAR)画像のオブジェクト検出で顕著な結果を達成しました。
ただし、マルチスケールのローカル機能の抽出に苦労しているため、特に密集している場合は、小さなターゲットの検出において性能が限られています。
したがって、密度の高いSARターゲット検出のための適応トークン(密度の高いアドビット)を備えた密度感受性視力変圧器を提案します。
標的分布に基づいて密度テンソルを生成する予備コンポーネントとして密度認識モジュール(DAM)を設計します。
それは、細心の注意を払って作成された客観的なメトリックによって導かれ、オブジェクトの空間分布と密度を正確かつ効果的にキャプチャできるようにします。
畳み込みニューラルネットワーク(CNNS)によって強化されたマルチスケール情報を変圧器から派生したグローバルな特徴を統合するために、密度強化融合モジュール(DEFM)が提案されています。
密度マスクのアシストと複数のソース機能を使用して、ターゲットサラバイバル領域への注意を効果的に洗練します。
特に、当社の密集したアドビットは、RSDDデータセットで79.8%のマップ、サイドデータセットで92.5%を達成します。
要約(オリジナル)
Vision Transformer (ViT) has achieved remarkable results in object detection for synthetic aperture radar (SAR) images, owing to its exceptional ability to extract global features. However, it struggles with the extraction of multi-scale local features, leading to limited performance in detecting small targets, especially when they are densely arranged. Therefore, we propose Density-Sensitive Vision Transformer with Adaptive Tokens (DenSe-AdViT) for dense SAR target detection. We design a Density-Aware Module (DAM) as a preliminary component that generates a density tensor based on target distribution. It is guided by a meticulously crafted objective metric, enabling precise and effective capture of the spatial distribution and density of objects. To integrate the multi-scale information enhanced by convolutional neural networks (CNNs) with the global features derived from the Transformer, Density-Enhanced Fusion Module (DEFM) is proposed. It effectively refines attention toward target-survival regions with the assist of density mask and the multiple sources features. Notably, our DenSe-AdViT achieves 79.8% mAP on the RSDD dataset and 92.5% on the SIVED dataset, both of which feature a large number of densely distributed vehicle targets.
arxiv情報
著者 | Yang Zhang,Jingyi Cao,Yanan You,Yuanyuan Qiao |
発行日 | 2025-04-18 11:25:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google