MetaDefa: Meta-learning based on Domain Enhancement and Feature Alignment for Single Domain Generalization

要約

メタ学習に基づく単一ドメイン一般化(SDG)は、ドメインシフト問題を解決するための効果的な手法として登場しました。
しかし、ソースドメインと拡張ドメイン間のデータ分布の一致が不十分であり、ドメイン不変の特徴をドメイン関連の特徴から分離するのが難しいため、SDG モデルは大きな一般化を達成することが困難です。
したがって、モデルの汎化パフォーマンスを向上させるために、ドメイン拡張と特徴アラインメント (MetaDefa) に基づいた新しいメタ学習方法が提案されています。
まず、背景置換および視覚的破損技術を使用して、多様で効果的な拡張ドメインを生成します。
次に、クラスアクティベーションマップとクラスに依存しないアクティベーションマップに基づくマルチチャネル機能調整モジュールは、適切な転送可能性の知識を効果的に抽出するように設計されています。
このモジュールでは、ソース ドメイン特徴空間と拡張ドメイン特徴空間の間の類似したターゲット領域に焦点を当て、類似していないターゲット領域の特徴表現を抑制することにより、ドメイン不変特徴を完全に探索できます。
2 つの公的に利用可能なデータセットに対する広範な実験により、MetaDefa が未知の複数のターゲット ドメインにおいて汎化パフォーマンスに大きな利点があることが示されました。

要約(オリジナル)

The single domain generalization(SDG) based on meta-learning has emerged as an effective technique for solving the domain-shift problem. However, the inadequate match of data distribution between source and augmented domains and difficult separation of domain-invariant features from domain-related features make SDG model hard to achieve great generalization. Therefore, a novel meta-learning method based on domain enhancement and feature alignment (MetaDefa) is proposed to improve the model generalization performance. First, the background substitution and visual corruptions techniques are used to generate diverse and effective augmented domains. Then, the multi-channel feature alignment module based on class activation maps and class agnostic activation maps is designed to effectively extract adequate transferability knowledge. In this module, domain-invariant features can be fully explored by focusing on similar target regions between source and augmented domains feature space and suppressing the feature representation of non-similar target regions. Extensive experiments on two publicly available datasets show that MetaDefa has significant generalization performance advantages in unknown multiple target domains.

arxiv情報

著者 Can Sun,Hao Zheng,Zhigang Hu,Liu Yang,Meiguang Zheng,Bo Xu
発行日 2023-11-27 15:13:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク