要約
信頼性の高いアプリケーションにとって、さまざまなデータ分布にわたる機械学習 (ML) モデルのパフォーマンスを理解することは非常に重要です。
最近の実証研究では、分布内 (ID) の精度と分布外 (OOD) の精度の間にほぼ完全な線形相関があると仮定していますが、この相関は部分母集団の変化の下ではより微妙になることが経験的に証明されています。
さまざまなデータセット、モデル、トレーニング エポックにわたる厳密な実験と分析を通じて、私たちは、OOD のパフォーマンスが部分母集団の変化における ID のパフォーマンスと非線形の相関関係を持つことが多いことを実証しました。
私たちの発見は、分布シフト中のモデルのパフォーマンスに線形相関があると仮定していた以前の研究と対照を成すもので、多数派の部分母集団と少数派の部分母集団に対するテストのパフォーマンスの間に「月の形」の相関関係(放物線状の上昇傾向曲線)があることを明らかにしています。
この自明ではない非線形相関は、モデル アーキテクチャ、ハイパーパラメータ、トレーニング期間、および部分母集団間の不均衡にわたって保持されます。
さらに、この「月の形」の非線形性は、トレーニング データ内の偽相関の程度によって因果的に影響されることがわかりました。
私たちの制御された実験では、トレーニング データ内のより強いスプリアス相関が、より非線形なパフォーマンス相関を生み出すことを示しています。
この現象について補足的な実験分析と理論分析を提供し、ML の信頼性と公平性に対するその影響について議論します。
私たちの研究は、さまざまな部分母集団のパフォーマンスに対するモデルの改善の非線形効果を理解することの重要性を強調しており、より公平で責任ある機械学習モデルの開発に役立つ可能性を秘めています。
要約(オリジナル)
Understanding the performance of machine learning (ML) models across diverse data distributions is critically important for reliable applications. Despite recent empirical studies positing a near-perfect linear correlation between in-distribution (ID) and out-of-distribution (OOD) accuracies, we empirically demonstrate that this correlation is more nuanced under subpopulation shifts. Through rigorous experimentation and analysis across a variety of datasets, models, and training epochs, we demonstrate that OOD performance often has a nonlinear correlation with ID performance in subpopulation shifts. Our findings, which contrast previous studies that have posited a linear correlation in model performance during distribution shifts, reveal a ‘moon shape’ correlation (parabolic uptrend curve) between the test performance on the majority subpopulation and the minority subpopulation. This non-trivial nonlinear correlation holds across model architectures, hyperparameters, training durations, and the imbalance between subpopulations. Furthermore, we found that the nonlinearity of this ‘moon shape’ is causally influenced by the degree of spurious correlations in the training data. Our controlled experiments show that stronger spurious correlation in the training data creates more nonlinear performance correlation. We provide complementary experimental and theoretical analyses for this phenomenon, and discuss its implications for ML reliability and fairness. Our work highlights the importance of understanding the nonlinear effects of model improvement on performance in different subpopulations, and has the potential to inform the development of more equitable and responsible machine learning models.
arxiv情報
著者 | Weixin Liang,Yining Mao,Yongchan Kwon,Xinyu Yang,James Zou |
発行日 | 2023-05-31 17:41:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google