On Feature Learning in the Presence of Spurious Correlations

要約

深層分類器は、学習データのターゲットと相関しているが、前景を分類するときの画像の背景など、学習の問題とは本質的に関連していない偽の特徴 $\unicode{x2013}$ パターンに依存することが知られています。
このホワイト ペーパーでは、標準的な経験的リスク最小化 (ERM) と特殊なグループ ロバストネス トレーニングによって学習した表現からデコードできるコア (非スプリアス) 機能に関する情報の量を評価します。
Deep Feature Reweighting (DFR) に関する最近の作業に続いて、スプリアス相関が壊れている保留セットでモデルの最後のレイヤーを再トレーニングすることにより、特徴表現を評価します。
複数のビジョンと NLP の問題では、単純な ERM によって学習された機能が、偽の相関の影響を減らすことを目的とした特殊なグループ ロバストネス メソッドによって学習された機能と非常に競合することを示します。
さらに、学習された特徴表現の品質は、モデル アーキテクチャや事前トレーニング戦略など、トレーニング方法を超えた設計上の決定によって大きく影響を受けることを示しています。
一方、高品質の特徴表現を学習するには、強力な正則化は必要ないことがわかりました。
最後に、分析からの洞察を使用して、人気のある Waterbirds、CelebA の髪の色の予測、および WILDS-FMOW 問題に関する文献で報告されている最良の結果を大幅に改善し、それぞれ 97%、92%、および 50% の最悪グループの精度を達成しました。

要約(オリジナル)

Deep classifiers are known to rely on spurious features $\unicode{x2013}$ patterns which are correlated with the target on the training data but not inherently relevant to the learning problem, such as the image backgrounds when classifying the foregrounds. In this paper we evaluate the amount of information about the core (non-spurious) features that can be decoded from the representations learned by standard empirical risk minimization (ERM) and specialized group robustness training. Following recent work on Deep Feature Reweighting (DFR), we evaluate the feature representations by re-training the last layer of the model on a held-out set where the spurious correlation is broken. On multiple vision and NLP problems, we show that the features learned by simple ERM are highly competitive with the features learned by specialized group robustness methods targeted at reducing the effect of spurious correlations. Moreover, we show that the quality of learned feature representations is greatly affected by the design decisions beyond the training method, such as the model architecture and pre-training strategy. On the other hand, we find that strong regularization is not necessary for learning high quality feature representations. Finally, using insights from our analysis, we significantly improve upon the best results reported in the literature on the popular Waterbirds, CelebA hair color prediction and WILDS-FMOW problems, achieving 97%, 92% and 50% worst-group accuracies, respectively.

arxiv情報

著者 Pavel Izmailov,Polina Kirichenko,Nate Gruver,Andrew Gordon Wilson
発行日 2022-10-20 16:10:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, stat.ML パーマリンク