Complementary Domain Adaptation and Generalization for Unsupervised Continual Domain Shift Learning

要約

絶え間ないドメイン シフトは、特にラベル付きデータが新しいドメインで利用できない状況では、現実世界のアプリケーションに大きな課題をもたらします。
この問題設定で知識を獲得するという課題は、教師なしの継続的なドメイン シフト学習と呼ばれます。
ドメインの適応と一般化のための既存の方法は、特定のドメインへの適応または目に見えないドメインへの一般化のいずれかに焦点を当てているため、この問題への対処に限界があります。
この論文では、教師なし継続的ドメインシフト学習の3つの主要な目標を達成するために、ドメイン適応と一般化を補完的な方法で組み合わせたシンプルで効果的な学習フレームワークである補完ドメイン適応と一般化(CoDAG)を提案します。現在のドメインへの適応、一般化
見たことのないドメインに移動し、以前に見たドメインの忘れを防ぎます。
私たちのアプローチはモデルにとらわれません。つまり、既存のドメイン適応および一般化アルゴリズムと互換性があります。
いくつかのベンチマーク データセットで CoDAG を評価し、モデルがすべてのデータセットと評価指標で最先端のモデルより優れていることを実証し、教師なしの継続的なドメイン シフト学習の処理におけるその有効性と堅牢性を強調します。

要約(オリジナル)

Continual domain shift poses a significant challenge in real-world applications, particularly in situations where labeled data is not available for new domains. The challenge of acquiring knowledge in this problem setting is referred to as unsupervised continual domain shift learning. Existing methods for domain adaptation and generalization have limitations in addressing this issue, as they focus either on adapting to a specific domain or generalizing to unseen domains, but not both. In this paper, we propose Complementary Domain Adaptation and Generalization (CoDAG), a simple yet effective learning framework that combines domain adaptation and generalization in a complementary manner to achieve three major goals of unsupervised continual domain shift learning: adapting to a current domain, generalizing to unseen domains, and preventing forgetting of previously seen domains. Our approach is model-agnostic, meaning that it is compatible with any existing domain adaptation and generalization algorithms. We evaluate CoDAG on several benchmark datasets and demonstrate that our model outperforms state-of-the-art models in all datasets and evaluation metrics, highlighting its effectiveness and robustness in handling unsupervised continual domain shift learning.

arxiv情報

著者 Wonguk Cho,Jinha Park,Taesup Kim
発行日 2023-03-28 09:05:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, stat.ML パーマリンク