要約
ドメイン不変の意味論的表現を学習することは、ドメイン汎化 (DG) を達成するために重要です。DG では、モデルが目に見えないターゲット ドメインで適切に動作する必要があります。
重要な課題の 1 つは、標準的なトレーニングでは、意味論的な機能とドメイン固有の機能が絡み合った結果になることがよくあることです。
これまでの研究では、因果関係の観点から問題を定式化し、因果関係 (\つまり意味論) と非因果関係 (\つまりドメイン固有) の特徴間の限界独立性を強制することによってもつれ問題を解決することが提案されています。
その単純さにもかかわらず、基本的な限界独立ベースのアイデアだけでは、因果関係の特徴を特定するには不十分である可能性があります。
d 分離によって、因果的特徴がオブジェクトに条件付けされた領域から独立していることによってさらに特徴付けられることが観察され、基本的なフレームワークを補完するものとして次の 2 つの戦略を提案します。
まず、この観察は、同じオブジェクトについて、因果的特徴を非因果的特徴に関連付けるべきではないことを暗黙的に示唆しており、共有のベース特徴抽出器と 2 つの軽量予測ヘッドを使用して 2 つの特徴を取得する一般的な方法が不適切である可能性があることを明らかにしています。
。
この制約を満たすために、因果的特徴取得分岐と非因果的特徴取得分岐が最初の数ブロックを共有し、その後分岐する、単純な早期分岐構造を提案し、より良い構造設計を実現します。
第 2 に、この観察は、因果関係の特徴が同じオブジェクトの異なるドメイン間で不変のままであることを意味します。
この目的を達成するために、因果的特徴をより適切に特徴付けるためにフレームワークに拡張を組み込む必要があることを提案し、さらに、このタスクを達成するための効果的なランダムドメインサンプリングスキームを提案します。
理論的および実験的結果は、2 つの戦略が基本的な限界独立ベースの枠組みにとって有益であることを示しています。
コードは \url{https://github.com/liangchen527/CausEB} で入手できます。
要約(オリジナル)
Learning domain-invariant semantic representations is crucial for achieving domain generalization (DG), where a model is required to perform well on unseen target domains. One critical challenge is that standard training often results in entangled semantic and domain-specific features. Previous works suggest formulating the problem from a causal perspective and solving the entanglement problem by enforcing marginal independence between the causal (\ie semantic) and non-causal (\ie domain-specific) features. Despite its simplicity, the basic marginal independent-based idea alone may be insufficient to identify the causal feature. By d-separation, we observe that the causal feature can be further characterized by being independent of the domain conditioned on the object, and we propose the following two strategies as complements for the basic framework. First, the observation implicitly implies that for the same object, the causal feature should not be associated with the non-causal feature, revealing that the common practice of obtaining the two features with a shared base feature extractor and two lightweight prediction heads might be inappropriate. To meet the constraint, we propose a simple early-branching structure, where the causal and non-causal feature obtaining branches share the first few blocks while diverging thereafter, for better structure design; Second, the observation implies that the causal feature remains invariant across different domains for the same object. To this end, we suggest that augmentation should be incorporated into the framework to better characterize the causal feature, and we further suggest an effective random domain sampling scheme to fulfill the task. Theoretical and experimental results show that the two strategies are beneficial for the basic marginal independent-based framework. Code is available at \url{https://github.com/liangchen527/CausEB}.
arxiv情報
著者 | Liang Chen,Yong Zhang,Yibing Song,Zhen Zhang,Lingqiao Liu |
発行日 | 2024-03-13 16:04:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google