Moderately Distributional Exploration for Domain Generalization

要約

タイトル:ドメイン汎化のための中程度の分布探査
要約:
– ドメイン汎化(DG)は、トレーニングドメインと未知の目標ドメインの配布シフトに対処することを目的としています。
– 新しいドメインを生成することは、最も効果的なアプローチの1つですが、パフォーマンスの向上は生成されたドメインと目標ドメインの配布の差異に依存します。
– 配布的に強健な最適化は、不確実性のセット内のドメインを探索することによって、配布の不一致に対処するための有望な方法です。
– しかし、不確実性のセットは圧倒的に大きくなる可能性があり、DGでの低信頼性の予測につながります。
– これは、大きな不確実性セットが、トレーニングドメインと異なるセマンティックな要素を含むドメインを導入する可能性があるためです。
– この問題に対処するために、ドメイン汎化のために中程度の分散探査(MODE)を提案します。
– 具体的には、MODEは、トレーニングドメインと同じ意味的要素を共有する不確実性のサブセットで配布探索を実行します。
– MODEは、モデルに証明可能な汎化パフォーマンスをもたらすことができます。
– 実験結果は、MODEが最新のベースラインと同等のパフォーマンスを実現していることを示しています。

要約(オリジナル)

Domain generalization (DG) aims to tackle the distribution shift between training domains and unknown target domains. Generating new domains is one of the most effective approaches, yet its performance gain depends on the distribution discrepancy between the generated and target domains. Distributionally robust optimization is promising to tackle distribution discrepancy by exploring domains in an uncertainty set. However, the uncertainty set may be overwhelmingly large, leading to low-confidence prediction in DG. It is because a large uncertainty set could introduce domains containing semantically different factors from training domains. To address this issue, we propose to perform a $\textbf{mo}$derately $\textbf{d}$istributional $\textbf{e}$xploration (MODE) for domain generalization. Specifically, MODE performs distribution exploration in an uncertainty $\textit{subset}$ that shares the same semantic factors with the training domains. We show that MODE can endow models with provable generalization performance on unknown target domains. The experimental results show that MODE achieves competitive performance compared to state-of-the-art baselines.

arxiv情報

著者 Rui Dai,Yonggang Zhang,Zhen Fang,Bo Han,Xinmei Tian
発行日 2023-04-27 06:50:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.LG パーマリンク