Meta-causal Learning for Single Domain Generalization

要約

タイトル:メタ因果学習の単一ドメイン汎化

要約:
– 単一ドメイン汎化は、単一のトレーニングドメイン(ソースドメイン)からモデルを学習し、複数の未知のテストドメイン(ターゲットドメイン)に適用することを目的としています。既存の方法は、トレーニングドメインの分布を拡大してターゲットドメインをカバーすることに焦点を当てていますが、ソースドメインとターゲットドメインのドメインシフトを推定することはできません。
– 本論文では、シミュレーション・分析・削減という新しい学習パラダイムを提案し、まず補助ドメインを構築してドメインシフトをシミュレートし、次にドメインシフトの原因を分析し、最後にモデルの適応に向けてドメインシフトを削減するように学習します。このパラダイムの下で、本論文では、メタ・因果学習法を提案し、トレーニング中に補助領域とソース領域の間のドメインシフトの原因を推測する方法、つまりメタ知識を学習します。メタ知識を使用して、テスト中にターゲットとソース領域間のシフトを分析します。
– 具体的には、多数の変換を行い、補助ドメインを生成するためにソースデータを変換し、カウンターファクチュアルな推論を行い、補助領域とソース領域の間のシフトの原因を特定し、推定された因果関係を要因に基づいたドメインアライメントに組み込みます。画像分類のいくつかのベンチマークでの広範な実験の結果、本論文で提案された手法の有効性が示されました。

要約(オリジナル)

Single domain generalization aims to learn a model from a single training domain (source domain) and apply it to multiple unseen test domains (target domains). Existing methods focus on expanding the distribution of the training domain to cover the target domains, but without estimating the domain shift between the source and target domains. In this paper, we propose a new learning paradigm, namely simulate-analyze-reduce, which first simulates the domain shift by building an auxiliary domain as the target domain, then learns to analyze the causes of domain shift, and finally learns to reduce the domain shift for model adaptation. Under this paradigm, we propose a meta-causal learning method to learn meta-knowledge, that is, how to infer the causes of domain shift between the auxiliary and source domains during training. We use the meta-knowledge to analyze the shift between the target and source domains during testing. Specifically, we perform multiple transformations on source data to generate the auxiliary domain, perform counterfactual inference to learn to discover the causal factors of the shift between the auxiliary and source domains, and incorporate the inferred causality into factor-aware domain alignments. Extensive experiments on several benchmarks of image classification show the effectiveness of our method.

arxiv情報

著者 Jin Chen,Zhi Gao,Xinxiao Wu,Jiebo Luo
発行日 2023-04-07 15:46:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.LG パーマリンク