Understanding Domain Generalization: A Noise Robustness Perspective

要約

ドメイン一般化 (DG) のための機械学習アルゴリズムは急速に開発されていますが、既存の DG アルゴリズムが標準ベンチマーク全体で古典的な経験的リスク最小化 (ERM) よりも優れているという明確な実証的証拠はありません。
この現象をより深く理解するために、ラベル ノイズのレンズを通して ERM よりも DG アルゴリズムの利点があるかどうかを調査します。
具体的には、私たちの有限サンプル分析により、ラベル ノイズが ERM の偽相関の影響を悪化させ、一般化を損なうことが明らかになりました。
逆に、スプリアス相関が存在する場合でも、DG アルゴリズムが有限サンプル トレーニング中に暗黙的なラベル ノイズ堅牢性を示すことを示します。
このような望ましい特性は、偽の相関を軽減し、合成実験における一般化を改善するのに役立ちます。
ただし、実世界のベンチマーク データセットに関する追加の包括的な実験では、ラベル ノイズの堅牢性が必ずしも ERM と比較して優れたパフォーマンスにつながるわけではないことが示されています。
私たちは、偽の相関関係から生じる ERM の故障モードは、実際にはそれほど顕著ではないのではないかと推測しています。

要約(オリジナル)

Despite the rapid development of machine learning algorithms for domain generalization (DG), there is no clear empirical evidence that the existing DG algorithms outperform the classic empirical risk minimization (ERM) across standard benchmarks. To better understand this phenomenon, we investigate whether there are benefits of DG algorithms over ERM through the lens of label noise. Specifically, our finite-sample analysis reveals that label noise exacerbates the effect of spurious correlations for ERM, undermining generalization. Conversely, we illustrate that DG algorithms exhibit implicit label-noise robustness during finite-sample training even when spurious correlation is present. Such desirable property helps mitigate spurious correlations and improve generalization in synthetic experiments. However, additional comprehensive experiments on real-world benchmark datasets indicate that label-noise robustness does not necessarily translate to better performance compared to ERM. We conjecture that the failure mode of ERM arising from spurious correlations may be less pronounced in practice.

arxiv情報

著者 Rui Qiao,Bryan Kian Hsiang Low
発行日 2024-01-26 13:27:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク