Invariance Principle Meets Vicinal Risk Minimization

要約

深層学習モデルはコンピューター ビジョン タスクでは優れていますが、多くの場合、配布外 (OOD) ドメインには一般化できません。
Invariant Risk Minimization (IRM) は、ドメイン不変の特徴を学習することで OOD の一般化に対処することを目的としています。
ただし、IRM は、大幅な多様性の変化を示すデータセットに苦戦しています。
Mixup や Semantic Data Augmentation (SDA) などのデータ拡張手法は多様性を強化しますが、過剰な拡張やラベルの不安定性のリスクがあります。
これらの課題に対処するために、ラベルの一貫性を維持しながらデータセットの多様性を強化するように設計された分散リスク最小化 (VRM) の新しい実装である、ドメイン共有セマンティック データ拡張 (SDA) モジュールを提案します。
さらに、Rademacher の複雑性分析を提供し、ベースライン手法と比較してより厳しい一般化誤差限界を確立します。
PACS、VLCS、OfficeHome、TerraIncognita などの OOD ベンチマークの広範な評価により、最先端のドメイン一般化手法と比べて一貫したパフォーマンスの向上が実証されています。

要約(オリジナル)

Deep learning models excel in computer vision tasks but often fail to generalize to out-of-distribution (OOD) domains. Invariant Risk Minimization (IRM) aims to address OOD generalization by learning domain-invariant features. However, IRM struggles with datasets exhibiting significant diversity shifts. While data augmentation methods like Mixup and Semantic Data Augmentation (SDA) enhance diversity, they risk over-augmentation and label instability. To address these challenges, we propose a domain-shared Semantic Data Augmentation (SDA) module, a novel implementation of Variance Risk Minimization (VRM) designed to enhance dataset diversity while maintaining label consistency. We further provide a Rademacher complexity analysis, establishing a tighter generalization error bound compared to baseline methods. Extensive evaluations on OOD benchmarks, including PACS, VLCS, OfficeHome, and TerraIncognita, demonstrate consistent performance improvements over state-of-the-art domain generalization methods.

arxiv情報

著者 Yaoyao Zhu,Xiuding Cai,Yingkai Wang,Dong Miao,Zhongliang Fu,Xu Luo
発行日 2025-01-23 15:42:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク