Prototype-Guided Continual Adaptation for Class-Incremental Unsupervised Domain Adaptation

要約

この論文では、クラス増分教師なしドメイン適応 (CI-UDA) と呼ばれる、実用的でありながら挑戦的な新しい問題を研究します。この問題では、ラベル付きソース ドメインにはすべてのクラスが含まれますが、ラベルなしターゲット ドメインのクラスは順次増加します。
この問題は、2 つの問題があるため困難です。
まず、ソース ラベル セットとターゲット ラベル セットはタイム ステップごとに一貫性がないため、正確なドメイン アライメントを実行することが難しくなります。
第 2 に、現在のステップでは以前のターゲット クラスを使用できないため、以前の知識を忘れてしまいます。
この問題に対処するために、2 つのソリューション戦略からなる新しいプロトタイプ ガイド付き継続的適応 (ProCA) メソッドを提案します。
1) ラベル プロトタイプの識別: ターゲット サンプルの累積予測確率で共有クラスを検出することにより、ターゲット ラベル プロトタイプを識別します。
2) プロトタイプベースのアラインメントとリプレイ: 特定されたラベル プロトタイプに基づいて、両方のドメインをアラインし、以前の知識を保持するようにモデルを強制します。
これら 2 つの戦略により、ProCA はソース モデルをクラス増分のラベルのないターゲット ドメインに効果的に適合させることができます。
広範な実験により、CI-UDA の解決における ProCA の有効性と優位性が実証されています。
ソース コードは https://github.com/Hongbin98/ProCA.git で入手できます。

要約(オリジナル)

This paper studies a new, practical but challenging problem, called Class-Incremental Unsupervised Domain Adaptation (CI-UDA), where the labeled source domain contains all classes, but the classes in the unlabeled target domain increase sequentially. This problem is challenging due to two difficulties. First, source and target label sets are inconsistent at each time step, which makes it difficult to conduct accurate domain alignment. Second, previous target classes are unavailable in the current step, resulting in the forgetting of previous knowledge. To address this problem, we propose a novel Prototype-guided Continual Adaptation (ProCA) method, consisting of two solution strategies. 1) Label prototype identification: we identify target label prototypes by detecting shared classes with cumulative prediction probabilities of target samples. 2) Prototype-based alignment and replay: based on the identified label prototypes, we align both domains and enforce the model to retain previous knowledge. With these two strategies, ProCA is able to adapt the source model to a class-incremental unlabeled target domain effectively. Extensive experiments demonstrate the effectiveness and superiority of ProCA in resolving CI-UDA. The source code is available at https://github.com/Hongbin98/ProCA.git

arxiv情報

著者 Hongbin Lin,Yifan Zhang,Zhen Qiu,Shuaicheng Niu,Chuang Gan,Yanxia Liu,Mingkui Tan
発行日 2022-07-29 13:45:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク