Exploring the Camera Bias of Person Re-identification

要約

人の再識別(REID)モデルのカメラバイアスを経験的に調査します。
以前は、この問題に対処するためにカメラ認識方法が提案されていましたが、それらは主にモデルのトレーニングドメインに限定されています。
目に見えないドメイン上のReidモデルのカメラバイアスを測定し、データ分布シフト下でカメラバイアスがより顕著になることを明らかにします。
目に見えないドメインデータの衰弱方法として、埋め込みベクターの特徴正規化を再検討します。
正規化は簡単なソリューションとして使用されていますが、その根本的な原因とより広範な適用性は未開拓のままです。
この単純な方法がバイアスを減らすのに効果的である理由を分析し、低レベルの画像特性やボディ角などの詳細なバイアス因子に適用できることを示します。
さらに、さまざまなモデルとベンチマークにわたる一般化可能性を検証し、Reidのシンプルで効果的なテスト時間後処理方法としての可能性を強調します。
さらに、REIDモデルの監視されていない学習におけるカメラバイアスの固有のリスクを調査します。
監視されていないモデルは、見たドメインデータでもカメララベルに非常に偏ったままであり、改善のかなりの余地を示しています。
カメラに偏った擬似ラベルがトレーニングに与える悪影響の観察に基づいて、バイアスを緩和するための簡単なトレーニング戦略を提案します。
これらの戦略を既存の監視されていない学習アルゴリズムに適用することにより、マイナーな修正により大幅なパフォーマンスの改善が達成できることを示します。

要約(オリジナル)

We empirically investigate the camera bias of person re-identification (ReID) models. Previously, camera-aware methods have been proposed to address this issue, but they are largely confined to training domains of the models. We measure the camera bias of ReID models on unseen domains and reveal that camera bias becomes more pronounced under data distribution shifts. As a debiasing method for unseen domain data, we revisit feature normalization on embedding vectors. While the normalization has been used as a straightforward solution, its underlying causes and broader applicability remain unexplored. We analyze why this simple method is effective at reducing bias and show that it can be applied to detailed bias factors such as low-level image properties and body angle. Furthermore, we validate its generalizability across various models and benchmarks, highlighting its potential as a simple yet effective test-time postprocessing method for ReID. In addition, we explore the inherent risk of camera bias in unsupervised learning of ReID models. The unsupervised models remain highly biased towards camera labels even for seen domain data, indicating substantial room for improvement. Based on observations of the negative impact of camera-biased pseudo labels on training, we suggest simple training strategies to mitigate the bias. By applying these strategies to existing unsupervised learning algorithms, we show that significant performance improvements can be achieved with minor modifications.

arxiv情報

著者 Myungseo Song,Jin-Woo Park,Jong-Seok Lee
発行日 2025-02-14 14:39:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク