Towards Context-Aware Domain Generalization: Understanding the Benefits and Limits of Marginal Transfer Learning

要約

この研究では、入力 $X$ のコンテキストに関する情報が新しいドメインにおける深層学習モデルの予測を改善できる条件を分析します。
ドメイン一般化 (DG) における限界転移学習の作業に続いて、コンテキストの概念を、入力自体と同じドメインに由来するデータ ポイントのセットの順列不変表現として形式化します。
私たちは、このアプローチが原理的に利益をもたらす条件の理論的分析を提供し、実際に簡単に検証できる 2 つの必要な基準を定式化します。
さらに、限界転移学習アプローチが堅牢性を保証する分布シフトの種類についての洞察にも貢献します。
経験的分析により、私たちの基準は有利なシナリオと不利なシナリオの両方を識別するのに効果的であることが示されています。
最後に、モデルが配布外 (OOD) ドメインで不当な外挿を課せられるシナリオを確実に検出し、潜在的な障害ケースを特定できることを実証します。
したがって、予測パフォーマンスと堅牢性の間のよく知られたトレードオフを回避して、最も予測性の高いモデルと最も堅牢なモデルの間で選択する方法を紹介します。

要約(オリジナル)

In this work, we analyze the conditions under which information about the context of an input $X$ can improve the predictions of deep learning models in new domains. Following work in marginal transfer learning in Domain Generalization (DG), we formalize the notion of context as a permutation-invariant representation of a set of data points that originate from the same domain as the input itself. We offer a theoretical analysis of the conditions under which this approach can, in principle, yield benefits, and formulate two necessary criteria that can be easily verified in practice. Additionally, we contribute insights into the kind of distribution shifts for which the marginal transfer learning approach promises robustness. Empirical analysis shows that our criteria are effective in discerning both favorable and unfavorable scenarios. Finally, we demonstrate that we can reliably detect scenarios where a model is tasked with unwarranted extrapolation in out-of-distribution (OOD) domains, identifying potential failure cases. Consequently, we showcase a method to select between the most predictive and the most robust model, circumventing the well-known trade-off between predictive performance and robustness.

arxiv情報

著者 Jens Müller,Lars Kühmichel,Martin Rohbeck,Stefan T. Radev,Ullrich Köthe
発行日 2024-02-21 13:57:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク