要約
ドメインの一般化は、分布の変化に対して堅牢なモデルを開発することを目的としています。
既存の手法は、モデルの堅牢性を高めるためにドメイン全体にわたる不変性の学習に焦点を当てており、データ拡張は不変予測子の学習に広く使用されており、ほとんどのメソッドは入力空間で拡張を実行します。
ただし、入力空間での拡張は多様性が限られているのに対し、特徴空間ではより多用途であり、有望な結果が示されています。
それにもかかわらず、特徴のセマンティクスが考慮されることはほとんどなく、既存の特徴拡張方法では、拡張される特徴の種類が限られているという問題があります。
機能をクラス汎用コンポーネント、クラス固有コンポーネント、ドメイン汎用コンポーネント、およびドメイン固有コンポーネントに分解します。
私たちは、XDomainMix という名前のクロスドメイン特徴拡張手法を提案します。これにより、ドメインの一般化を達成するために不変表現の学習を強調しながら、サンプルの多様性を高めることができます。
広く使用されているベンチマーク データセットでの実験により、私たちが提案した方法が最先端のパフォーマンスを達成できることが実証されました。
定量的分析により、私たちの特徴拡張アプローチにより、さまざまなドメイン間で不変である効果的なモデルの学習が容易になることが示されました。
要約(オリジナル)
Domain generalization aims to develop models that are robust to distribution shifts. Existing methods focus on learning invariance across domains to enhance model robustness, and data augmentation has been widely used to learn invariant predictors, with most methods performing augmentation in the input space. However, augmentation in the input space has limited diversity whereas in the feature space is more versatile and has shown promising results. Nonetheless, feature semantics is seldom considered and existing feature augmentation methods suffer from a limited variety of augmented features. We decompose features into class-generic, class-specific, domain-generic, and domain-specific components. We propose a cross-domain feature augmentation method named XDomainMix that enables us to increase sample diversity while emphasizing the learning of invariant representations to achieve domain generalization. Experiments on widely used benchmark datasets demonstrate that our proposed method is able to achieve state-of-the-art performance. Quantitative analysis indicates that our feature augmentation approach facilitates the learning of effective models that are invariant across different domains.
arxiv情報
著者 | Yingnan Liu,Yingtian Zou,Rui Qiao,Fusheng Liu,Mong Li Lee,Wynne Hsu |
発行日 | 2024-05-14 13:24:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google