要約
人物の再識別 (ReID) は、コンピュータ ビジョンの分野ではよく知られている問題です。
主な目的は、画像ギャラリー内の特定の個人を識別することです。
ただし、この作業は、ポーズの変化、照明の変化、障害物、紛らわしい背景の存在など、さまざまな要因により困難です。
既存の ReID 手法では、識別できる特徴 (頭、靴、バックパックなど) をキャプチャできないことが多く、代わりにターゲットが遮られている場合には無関係な特徴をキャプチャします。
パーツベースおよびアテンションベースの ReID 手法の成功を動機として、私たちは AlignedReID++ を改良し、ResNet ベースのアーキテクチャにチャネルごとのアテンションを組み込んだ個人 ReID のより効果的な手法である AaP-ReID を提示します。
私たちの方法には、チャネルワイズ アテンション ボトルネック (CWAbottleneck) ブロックが組み込まれており、特徴マップ内の各チャネルの重要性を動的に調整することで特徴を識別することができます。
Market-1501、DukeMTMC-reID、CUHK03 の 3 つのベンチマーク データセットで Aap-ReID を評価しました。
最先端の人物 ReID 手法と比較すると、Market-1501 で 95.6%、DukeMTMC-reID で 90.6%、CUHK03 で 82.4% というランク 1 の精度という優れた結果を達成しています。
要約(オリジナル)
Person re-identification (ReID) is a well-known problem in the field of computer vision. The primary objective is to identify a specific individual within a gallery of images. However, this task is challenging due to various factors, such as pose variations, illumination changes, obstructions, and the presence ofconfusing backgrounds. Existing ReID methods often fail to capture discriminative features (e.g., head, shoes, backpacks) and instead capture irrelevant features when the target is occluded. Motivated by the success of part-based and attention-based ReID methods, we improve AlignedReID++ and present AaP-ReID, a more effective method for person ReID that incorporates channel-wise attention into a ResNet-based architecture. Our method incorporates the Channel-Wise Attention Bottleneck (CWAbottleneck) block and can learn discriminating features by dynamically adjusting the importance ofeach channel in the feature maps. We evaluated Aap-ReID on three benchmark datasets: Market-1501, DukeMTMC-reID, and CUHK03. When compared with state-of-the-art person ReID methods, we achieve competitive results with rank-1 accuracies of 95.6% on Market-1501, 90.6% on DukeMTMC-reID, and 82.4% on CUHK03.
arxiv情報
著者 | Vipin Gautam,Shitala Prasad,Sharad Sinha |
発行日 | 2023-09-27 16:54:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google