要約
深層学習テクノロジーの急速な進歩により、人物再識別 (ReID) のパフォーマンスが大幅に向上しました。
しかし、これまでの研究の大部分は伝統的に、均一な分割、ハード アテンション メカニズム、セマンティック マスクなどの単一の観点からのみ特徴を抽出することによって問題を解決することに焦点を当ててきました。
これらのアプローチは特定の状況では有効性を実証していますが、さまざまな状況では不十分です。
この論文では、人物再識別のための相互蒸留学習 (MDPR と呼ばれる) という新しいアプローチを提案します。これは、特徴表現を集合的に強化するために相互蒸留の力を活用し、単一の統一モデル内で複数の観点から困難な問題に対処します。
。
具体的には、私たちのアプローチには 2 つのブランチが含まれます。1 つは均一な水平分割戦略を介して局所的な特徴を抽出するハード コンテンツ ブランチ、もう 1 つは前景と背景を動的に区別し、慎重に設計されたアテンション メカニズムを介して複数粒度の特徴の抽出を容易にするソフト コンテンツ ブランチです。
これら 2 つのブランチ間の知識交換を促進するために、相互蒸留および融合プロセスが採用され、各ブランチの出力の能力が向上します。
私たちのアプローチの有効性と優位性を検証するために、広く使用されている人物 ReID データセットに対して広範な実験が行われています。
特に、私たちの方法は、DukeMTMC-reID データセットの mAP/Rank-1 で $88.7\%/94.4\%$ という驚異的な結果を達成し、現在の最先端の結果を上回っています。
私たちのソースコードは https://github.com/KuilongCui/MDPR で入手できます。
要約(オリジナル)
With the rapid advancements in deep learning technologies, person re-identification (ReID) has witnessed remarkable performance improvements. However, the majority of prior works have traditionally focused on solving the problem via extracting features solely from a single perspective, such as uniform partitioning, hard attention mechanisms, or semantic masks. While these approaches have demonstrated efficacy within specific contexts, they fall short in diverse situations. In this paper, we propose a novel approach, Mutual Distillation Learning For Person Re-identification (termed as MDPR), which addresses the challenging problem from multiple perspectives within a single unified model, leveraging the power of mutual distillation to enhance the feature representations collectively. Specifically, our approach encompasses two branches: a hard content branch to extract local features via a uniform horizontal partitioning strategy and a Soft Content Branch to dynamically distinguish between foreground and background and facilitate the extraction of multi-granularity features via a carefully designed attention mechanism. To facilitate knowledge exchange between these two branches, a mutual distillation and fusion process is employed, promoting the capability of the outputs of each branch. Extensive experiments are conducted on widely used person ReID datasets to validate the effectiveness and superiority of our approach. Notably, our method achieves an impressive $88.7\%/94.4\%$ in mAP/Rank-1 on the DukeMTMC-reID dataset, surpassing the current state-of-the-art results. Our source code is available at https://github.com/KuilongCui/MDPR.
arxiv情報
著者 | Huiyuan Fu,Kuilong Cui,Chuanming Wang,Mengshi Qi,Huadong Ma |
発行日 | 2024-01-12 07:49:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google