要約
定期的に監視されていないドメイン適応者の再識別(Reid)は、ソースドメインから固定ターゲットドメインへのモデルの適応に焦点を当てています。
ただし、適応されたReidモデルは、以前に獲得された知識をほとんど保持することができず、目に見えないデータに一般化することはできません。
この論文では、ソースドメインと各適応ターゲットドメインを忘れることなく、新しいドメインにモデルを徐々に適応させるデュアルレベルの共同適応と焦点アンチ焦点(DJAA)フレームワークを提案します。
プロトタイプとインスタンスレベルの一貫性を使用して、適応中の忘却を軽減する可能性を探ります。
具体的には、各適応ステップで更新されるメモリバッファーに、少数の代表的な画像サンプルと対応するクラスタープロトタイプを保存します。
バッファリングされた画像とプロトタイプを使用して、画像とイメージの類似性と画像間の類似性を正規化して、古い知識をリハーサルします。
マルチステップ適応の後、モデルは、すべての見られたドメインといくつかの目に見えないドメインでテストされ、メソッドの一般化能力を検証します。
広範な実験では、提案された方法が、監視されていない人のReidモデルの浸透防止、一般化、および後方互換能力を大幅に改善することを示しています。
要約(オリジナル)
Regular unsupervised domain adaptive person re-identification (ReID) focuses on adapting a model from a source domain to a fixed target domain. However, an adapted ReID model can hardly retain previously-acquired knowledge and generalize to unseen data. In this paper, we propose a Dual-level Joint Adaptation and Anti-forgetting (DJAA) framework, which incrementally adapts a model to new domains without forgetting source domain and each adapted target domain. We explore the possibility of using prototype and instance-level consistency to mitigate the forgetting during the adaptation. Specifically, we store a small number of representative image samples and corresponding cluster prototypes in a memory buffer, which is updated at each adaptation step. With the buffered images and prototypes, we regularize the image-to-image similarity and image-to-prototype similarity to rehearse old knowledge. After the multi-step adaptation, the model is tested on all seen domains and several unseen domains to validate the generalization ability of our method. Extensive experiments demonstrate that our proposed method significantly improves the anti-forgetting, generalization and backward-compatible ability of an unsupervised person ReID model.
arxiv情報
著者 | Hao Chen,Francois Bremond,Nicu Sebe,Shiliang Zhang |
発行日 | 2025-02-14 12:08:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google