Subspace Identification for Multi-Source Domain Adaptation

要約

マルチソース ドメイン アダプテーション (MSDA) 方法は、複数のラベル付きソース ドメインからラベルのないターゲット ドメインに知識を転送することを目的としています。
現在の手法は、ドメイン全体で最小限の変更を強制することでターゲットの結合分布の識別可能性を実現していますが、多くの場合、適切な数のドメイン、潜在変数の単調変換、不変のラベル分布などの厳しい条件が必要です。
これらの要件を実際のアプリケーションで満たすのは困難です。
これらの厳密な仮定の必要性を軽減するために、ドメイン数と変換プロパティに関するより制限の少ない制約の下でドメイン不変変数とドメイン固有変数のもつれの解き方を保証する部分空間同定理論を提案します。これにより、ドメインシフトの影響を最小限に抑えてドメイン適応を促進します。
不変変数について。
この理論に基づいて、変分推論を利用する部分空間識別保証 (SIG) モデルを開発します。
さらに、SIG モデルにはクラス認識の条件付きアラインメントが組み込まれており、ドメインに応じてラベルの分布が変化するターゲットのシフトに対応します。
実験結果は、当社の SIG モデルがさまざまなベンチマーク データセットで既存の MSDA 手法を上回るパフォーマンスを示し、現実世界のアプリケーションにおけるその有効性を強調しています。

要約(オリジナル)

Multi-source domain adaptation (MSDA) methods aim to transfer knowledge from multiple labeled source domains to an unlabeled target domain. Although current methods achieve target joint distribution identifiability by enforcing minimal changes across domains, they often necessitate stringent conditions, such as an adequate number of domains, monotonic transformation of latent variables, and invariant label distributions. These requirements are challenging to satisfy in real-world applications. To mitigate the need for these strict assumptions, we propose a subspace identification theory that guarantees the disentanglement of domain-invariant and domain-specific variables under less restrictive constraints regarding domain numbers and transformation properties, thereby facilitating domain adaptation by minimizing the impact of domain shifts on invariant variables. Based on this theory, we develop a Subspace Identification Guarantee (SIG) model that leverages variational inference. Furthermore, the SIG model incorporates class-aware conditional alignment to accommodate target shifts where label distributions change with the domains. Experimental results demonstrate that our SIG model outperforms existing MSDA techniques on various benchmark datasets, highlighting its effectiveness in real-world applications.

arxiv情報

著者 Zijian Li,Ruichu Cai,Guangyi Chen,Boyang Sun,Zhifeng Hao,Kun Zhang
発行日 2023-12-14 16:31:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク