Exploring Stronger Transformer Representation Learning for Occluded Person Re-Identification

要約

いくつかの複雑な要因(オクルージョン、ポーズのバリエーション、多様なカメラの視点など)により、人物の再識別においてより強力な特徴表現を抽出することは依然として困難な作業です。
この論文では、トランスベースの人物再識別フレームワークである SSSC-TransReID を組み合わせた新しい自己監視と監視を提案しました。
一般的なトランスフォーマーベースの人物再識別モデルとは異なり、私たちは自己教師あり対比学習ブランチを設計しました。これにより、ネガティブサンプルや追加の事前トレーニングなしで人物再識別の特徴表現を強化できます。
対比学習ブランチをトレーニングするために、オクルージョンの特徴表現を強化するために、実際のシーンでオクルージョンをシミュレートする新しいランダム長方形マスク戦略も提案しました。
最後に、共同トレーニング損失関数を利用して、ID タグを使用した教師あり学習とネガティブ サンプルを使用しない自己教師あり対比学習の利点を統合しました。これにより、特にオクルージョンについて、より強力な識別特徴を発掘するモデルの能力を強化できます。
いくつかのベンチマーク データセットに関する広範な実験結果は、私たちの提案したモデルが一貫して優れた Re-ID パフォーマンスを獲得し、平均平均精度 (mAP) とランク 1 精度で最先端の ReID 手法を大幅に上回っていることを示しています。

要約(オリジナル)

Due to some complex factors (e.g., occlusion, pose variation and diverse camera perspectives), extracting stronger feature representation in person re-identification remains a challenging task. In this paper, we proposed a novel self-supervision and supervision combining transformer-based person re-identification framework, namely SSSC-TransReID. Different from the general transformer-based person re-identification models, we designed a self-supervised contrastive learning branch, which can enhance the feature representation for person re-identification without negative samples or additional pre-training. In order to train the contrastive learning branch, we also proposed a novel random rectangle mask strategy to simulate the occlusion in real scenes, so as to enhance the feature representation for occlusion. Finally, we utilized the joint-training loss function to integrate the advantages of supervised learning with ID tags and self-supervised contrastive learning without negative samples, which can reinforce the ability of our model to excavate stronger discriminative features, especially for occlusion. Extensive experimental results on several benchmark datasets show our proposed model obtains superior Re-ID performance consistently and outperforms the state-of-the-art ReID methods by large margins on the mean average accuracy (mAP) and Rank-1 accuracy.

arxiv情報

著者 Zhangjian Ji,Donglin Cheng,Kai Feng
発行日 2024-10-23 13:07:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク