Multi-Prompt Alignment for Multi-Source Unsupervised Domain Adaptation

要約

教師なしドメイン アダプテーション (UDA) の既存の方法のほとんどは、共有ネットワークに依存してドメ​​イン不変の特徴を抽出します。
ただし、複数のソース ドメインに直面する場合、そのようなネットワークの最適化にはネットワーク全体のパラメーターの更新が含まれるため、特に最小-最大目標と組み合わせる場合、計算コストが高くつき、困難になります。
計算的に経済的な方法で下流タスクに大容量モデルを適応させるプロンプト学習の最近の進歩に触発され、マルチソース UDA 用のシンプルで効率的なフレームワークであるマルチプロンプト アライメント (MPA) を紹介します。
ソース ドメインとターゲット ドメインのペアが与えられると、MPA はまず個別のプロンプトをトレーニングして、対照的な損失を通じてドメイン ギャップを最小限に抑えます。
次に、MPA は自動エンコーディング プロセスを通じて学習したプロンプトのノイズを除去し、再構築されたすべてのプロンプトの一致を最大化することでプロンプトを調整します。
さらに、自動エンコードプロセスから取得された結果の部分空間は、合理化されたターゲットドメインのセットに簡単に一般化でき、実際の使用に向けて私たちの方法がより効率的になることを示します。
広範な実験により、MPA が DomainNet 上で 3 つの人気のあるデータセットで最先端の結果を達成し、平均 54.1% という驚異的な精度を達成したことが示されています。

要約(オリジナル)

Most existing methods for unsupervised domain adaptation (UDA) rely on a shared network to extract domain-invariant features. However, when facing multiple source domains, optimizing such a network involves updating the parameters of the entire network, making it both computationally expensive and challenging, particularly when coupled with min-max objectives. Inspired by recent advances in prompt learning that adapts high-capacity models for downstream tasks in a computationally economic way, we introduce Multi-Prompt Alignment (MPA), a simple yet efficient framework for multi-source UDA. Given a source and target domain pair, MPA first trains an individual prompt to minimize the domain gap through a contrastive loss. Then, MPA denoises the learned prompts through an auto-encoding process and aligns them by maximizing the agreement of all the reconstructed prompts. Moreover, we show that the resulting subspace acquired from the auto-encoding process can easily generalize to a streamlined set of target domains, making our method more efficient for practical usage. Extensive experiments show that MPA achieves state-of-the-art results on three popular datasets with an impressive average accuracy of 54.1% on DomainNet.

arxiv情報

著者 Haoran Chen,Zuxuan Wu,Xintong Han,Yu-Gang Jiang
発行日 2023-05-17 17:27:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク