Spatial-Aware GAN for Unsupervised Person Re-identification

要約

近年の人物再識別研究では、ラベル付けされた多数の人物画像から学習することにより、大きな成果を上げている。一方で、学習したモデルを異なる環境で収集した画像に適用すると、性能が大きく低下することが多い。この制約を緩和するために教師なし領域適応(UDA)が研究されているが、既存のシステムの多くは画像を画素レベルのみで適応し、空間レベルでの明らかな不一致を無視する。本論文では、空間レベルとピクセルレベルの画像を同時に適応させることができる革新的なUDAに基づく人物再識別ネットワークを提案する。空間レベルとピクセルレベルの適応の学習を協調的に導く、新しい分離サイクル整合性損失が設計されている。さらに、異なるジオメトリビューの画像を生成し、学習画像を効果的に補強することができる新しいマルチモーダル機構を組み込んでいる。多数の公共データセットに対する広範な実験により、提案するUDAネットワークは、最先端技術と比較して、優れた人物再識別性能を達成することが示される。

要約(オリジナル)

The recent person re-identification research has achieved great success by learning from a large number of labeled person images. On the other hand, the learned models often experience significant performance drops when applied to images collected in a different environment. Unsupervised domain adaptation (UDA) has been investigated to mitigate this constraint, but most existing systems adapt images at pixel level only and ignore obvious discrepancies at spatial level. This paper presents an innovative UDA-based person re-identification network that is capable of adapting images at both spatial and pixel levels simultaneously. A novel disentangled cycle-consistency loss is designed which guides the learning of spatial-level and pixel-level adaptation in a collaborative manner. In addition, a novel multi-modal mechanism is incorporated which is capable of generating images of different geometry views and augmenting training images effectively. Extensive experiments over a number of public datasets show that the proposed UDA network achieves superior person re-identification performance as compared with the state-of-the-art.

arxiv情報

著者 Changgong Zhang,Fangneng Zhan
発行日 2022-10-03 16:51:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク