要約
パッシブミリ波 (PMMW) は、人間の安全を検査するための重要な潜在的な技術です。
いくつかの一般的な物体検出ネットワークが PMMW 画像に使用されています。
ただし、PMMW 画像の低解像度と高ノイズによる制限により、ディープラーニングに基づく PMMW の隠れオブジェクト検出は通常、精度と分類の信頼度が低くなります。
上記の問題に取り組むために、この論文では、PMMW-DETR と呼ばれるタスクアライン検出トランスフォーマー ネットワークを提案します。
最初の段階では、Denoising Coarse-to-Fine Transformer (DCFT) バックボーンが、さまざまなスケールで長距離および短距離の特徴を抽出するように設計されています。
第 2 段階では、学習した空間特徴を事前知識としてネットワークに導入するクエリ選択モジュールを提案します。これにより、ネットワークの意味認識能力が強化されます。
第 3 段階では、分類パフォーマンスの向上を目指して、タスク整合デュアルヘッド ブロックを実行して、分類タスクと回帰タスクを分離します。
当社が独自に開発した PMMW セキュリティ スクリーニング データセットに基づく、最先端 (SOTA) 手法との比較やアブレーション研究を含む実験結果は、PMMW-DETR が以前の研究よりも高い精度と分類信頼性を獲得し、次のような堅牢性を示していることを実証しています。
PMMW 画像は低品質です。
要約(オリジナル)
Passive millimeter-wave (PMMW) is a significant potential technique for human security screening. Several popular object detection networks have been used for PMMW images. However, restricted by the low resolution and high noise of PMMW images, PMMW hidden object detection based on deep learning usually suffers from low accuracy and low classification confidence. To tackle the above problems, this paper proposes a Task-Aligned Detection Transformer network, named PMMW-DETR. In the first stage, a Denoising Coarse-to-Fine Transformer (DCFT) backbone is designed to extract long- and short-range features in the different scales. In the second stage, we propose the Query Selection module to introduce learned spatial features into the network as prior knowledge, which enhances the semantic perception capability of the network. In the third stage, aiming to improve the classification performance, we perform a Task-Aligned Dual-Head block to decouple the classification and regression tasks. Based on our self-developed PMMW security screening dataset, experimental results including comparison with State-Of-The-Art (SOTA) methods and ablation study demonstrate that the PMMW-DETR obtains higher accuracy and classification confidence than previous works, and exhibits robustness to the PMMW images of low quality.
arxiv情報
著者 | Cheng Guo,Fei Hu,Yan Hu |
発行日 | 2023-07-07 11:34:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google