DROP: Decouple Re-Identification and Human Parsing with Task-specific Features for Occluded Person Re-identification

要約

この論文では、遮蔽された人物の再識別 (ReID) のための分離再識別と人間解析 (DROP) 手法を紹介します。
ReIDと人間による解析の同時マルチタスク学習にグローバル機能を使用したり、注意を誘導するためにセマンティック情報に依存したりする主流のアプローチとは異なり、DROPは、前者のパフォーマンスが劣るのは、ReIDと人間による解析機能に対する個別の粒度要件によるものであると主張しています。
ReID は歩行者の部品間のインスタンスの部品レベルの違いに焦点を当てますが、人間の解析は人体の内部構造を反映する意味論的な空間コンテキストに焦点を当てます。
これに対処するために、DROP は ReID と人間による解析の機能を分離し、さまざまな解像度の機能マップを組み合わせるためにディテールを保持したアップサンプリングを提案します。
人間による解析の解析固有の機能は分離され、人間の位置情報はもっぱら人間による解析ブランチに追加されます。
ReID ブランチでは、インスタンス レベルのパーツの違いを強化するために、パーツを意識したコンパクト性の損失が導入されています。
実験結果は、DROP の有効性を強調しており、特に Occluded-Duke で 76.8% のランク 1 精度を達成し、2 つの主流の方法を上回っています。
コードベースには https://github.com/shuguang-52/DROP からアクセスできます。

要約(オリジナル)

The paper introduces the Decouple Re-identificatiOn and human Parsing (DROP) method for occluded person re-identification (ReID). Unlike mainstream approaches using global features for simultaneous multi-task learning of ReID and human parsing, or relying on semantic information for attention guidance, DROP argues that the inferior performance of the former is due to distinct granularity requirements for ReID and human parsing features. ReID focuses on instance part-level differences between pedestrian parts, while human parsing centers on semantic spatial context, reflecting the internal structure of the human body. To address this, DROP decouples features for ReID and human parsing, proposing detail-preserving upsampling to combine varying resolution feature maps. Parsing-specific features for human parsing are decoupled, and human position information is exclusively added to the human parsing branch. In the ReID branch, a part-aware compactness loss is introduced to enhance instance-level part differences. Experimental results highlight the efficacy of DROP, especially achieving a Rank-1 accuracy of 76.8% on Occluded-Duke, surpassing two mainstream methods. The codebase is accessible at https://github.com/shuguang-52/DROP.

arxiv情報

著者 Shuguang Dou,Xiangyang Jiang,Yuanpeng Tu,Junyao Gao,Zefan Qu,Qingsong Zhao,Cairong Zhao
発行日 2024-01-31 17:54:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク