Less Learn Shortcut: Analyzing and Mitigating Learning of Spurious Feature-Label Correlation

要約

最近の研究では、ディープ ニューラル ネットワークはタスクを理解するのではなく、意思決定を行うための近道としてデータセットのバイアスを利用することが多く、現実世界のアプリケーションで障害を引き起こすことが明らかになりました。
この研究では、モデルがトレーニング データの偏ったデータ分布から学習する単語の特徴とラベルの間の偽の相関に焦点を当てます。
特に、特定のラベルとの共起頻度が高い単語を偏った単語、偏った単語を含む例を偏った例文と定義します。
私たちの分析では、偏った例の方がモデルが学習しやすい一方で、予測時には偏った単語がモデルの予測に大きく寄与し、モデルは単語と単語の間の偽の相関に過度に依存して予測ラベルを割り当てる傾向があることが示されています。
ラベル。
モデルのショートカットへの過度の依存 (つまり偽の相関) を軽減するために、学習戦略 Less-Learn-Shortcut (LLS) を提案します。私たちの戦略は、偏ったサンプルの偏った度合いを定量化し、それに応じて重み付けを下げます。
質問マッチング、自然言語推論、感情分析タスクに関する実験結果は、LLS がタスクに依存しない戦略であり、ドメイン内データで良好なパフォーマンスを維持しながら、敵対的データでのモデルのパフォーマンスを向上させることができることを示しています。

要約(オリジナル)

Recent research has revealed that deep neural networks often take dataset biases as a shortcut to make decisions rather than understand tasks, leading to failures in real-world applications. In this study, we focus on the spurious correlation between word features and labels that models learn from the biased data distribution of training data. In particular, we define the word highly co-occurring with a specific label as biased word, and the example containing biased word as biased example. Our analysis shows that biased examples are easier for models to learn, while at the time of prediction, biased words make a significantly higher contribution to the models’ predictions, and models tend to assign predicted labels over-relying on the spurious correlation between words and labels. To mitigate models’ over-reliance on the shortcut (i.e. spurious correlation), we propose a training strategy Less-Learn-Shortcut (LLS): our strategy quantifies the biased degree of the biased examples and down-weights them accordingly. Experimental results on Question Matching, Natural Language Inference and Sentiment Analysis tasks show that LLS is a task-agnostic strategy and can improve the model performance on adversarial data while maintaining good performance on in-domain data.

arxiv情報

著者 Yanrui Du,Jing Yan,Yan Chen,Jing Liu,Sendong Zhao,Qiaoqiao She,Hua Wu,Haifeng Wang,Bing Qin
発行日 2023-06-22 13:05:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク