Complementary Domain Adaptation and Generalization for Unsupervised Continual Domain Shift Learning

要約

継続的なドメインの移行は、実際のアプリケーション、特にラベル付きデータが新しいドメインで利用できない状況では、重大な課題を引き起こします。
この問題設定で知識を獲得するという課題は、教師なしの継続的ドメイン シフト学習と呼ばれます。
ドメインの適応と一般化のための既存の方法では、特定のドメインへの適応か、目に見えないドメインへの一般化のいずれかに焦点を当てているため、この問題に対処するには限界がありますが、両方には焦点が当てられていません。
この論文では、補完的なドメイン適応と一般化 (CoDAG) を提案します。これは、ドメイン適応と一般化を相補的に組み合わせて、教師なし継続的ドメイン シフト学習の 3 つの主要な目標を達成する、シンプルで効果的な学習フレームワークです。現在のドメインへの適応、一般化です。
見たことのないドメインにアクセスし、以前に見たドメインを忘れることを防ぎます。
私たちのアプローチはモデルに依存しません。つまり、既存のドメイン適応および一般化アルゴリズムと互換性があります。
私たちはいくつかのベンチマーク データセットで CoDAG を評価し、私たちのモデルがすべてのデータセットと評価メトリクスで最先端のモデルよりも優れていることを実証し、教師なしの継続的なドメイン シフト学習の処理におけるその有効性と堅牢性を強調しています。

要約(オリジナル)

Continual domain shift poses a significant challenge in real-world applications, particularly in situations where labeled data is not available for new domains. The challenge of acquiring knowledge in this problem setting is referred to as unsupervised continual domain shift learning. Existing methods for domain adaptation and generalization have limitations in addressing this issue, as they focus either on adapting to a specific domain or generalizing to unseen domains, but not both. In this paper, we propose Complementary Domain Adaptation and Generalization (CoDAG), a simple yet effective learning framework that combines domain adaptation and generalization in a complementary manner to achieve three major goals of unsupervised continual domain shift learning: adapting to a current domain, generalizing to unseen domains, and preventing forgetting of previously seen domains. Our approach is model-agnostic, meaning that it is compatible with any existing domain adaptation and generalization algorithms. We evaluate CoDAG on several benchmark datasets and demonstrate that our model outperforms state-of-the-art models in all datasets and evaluation metrics, highlighting its effectiveness and robustness in handling unsupervised continual domain shift learning.

arxiv情報

著者 Wonguk Cho,Jinha Park,Taesup Kim
発行日 2023-10-13 12:49:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, stat.ML パーマリンク