要約
タイトル:機械学習における弱い教師信号のためのMeta Self-Refinement
要約:
– 弱い教師信号で深層ニューラルネットワーク(DNN)をトレーニングすることで、アノテーションコストを大幅に削減できるため、この方法は注目を集めている。
– しかし、弱い教師信号によるラベルはノイズが混じっているため、DNNの高い能力はラベルノイズを簡単にオーバーフィットすることで、汎化性能が低下する可能性がある。
– この問題に対応する方法として、最近の手法では、弱い教師信号でトレーニングされた教師が、学生に高信頼度のラベルを提供するための自己トレーニングを利用して、ノイズに強いモデルを構築することが提唱されている。
– しかし、このようなフレームワークから派生した教師は、多くのノイズに適合し、誤った疑似ラベルを高信頼度で生成する可能性があり、深刻なエラー伝播を引き起こすことがある。
– そこで、この論文では、ラベルノイズに対処するためのノイズ耐性学習フレームワークであるMeta Self-Refinement(MSR)を提案している。
– MSRは、ノイズの混じったラベルでトレーニングされた教師に依存するのではなく、教師が疑似ラベルを改善することを促す。
– 各トレーニングステップで、MSRは現在のミニバッチに対してメタ勾配降下を行い、クリーンな検証セットで学生の性能を最大化する。
– 8つの自然言語処理ベンチマークでの実験により、MSRがすべての設定でラベルノイズに対して堅牢であることが示され、最大11.4%の精度と9.26%のF1スコアで、最先端の方法を上回ることが判明した。
要約(オリジナル)
Training deep neural networks (DNNs) under weak supervision has attracted increasing research attention as it can significantly reduce the annotation cost. However, labels from weak supervision can be noisy, and the high capacity of DNNs enables them to easily overfit the label noise, resulting in poor generalization. Recent methods leverage self-training to build noise-resistant models, in which a teacher trained under weak supervision is used to provide highly confident labels for teaching the students. Nevertheless, the teacher derived from such frameworks may have fitted a substantial amount of noise and therefore produce incorrect pseudo-labels with high confidence, leading to severe error propagation. In this work, we propose Meta Self-Refinement (MSR), a noise-resistant learning framework, to effectively combat label noise from weak supervision. Instead of relying on a fixed teacher trained with noisy labels, we encourage the teacher to refine its pseudo-labels. At each training step, MSR performs a meta gradient descent on the current mini-batch to maximize the student performance on a clean validation set. Extensive experimentation on eight NLP benchmarks demonstrates that MSR is robust against label noise in all settings and outperforms state-of-the-art methods by up to 11.4% in accuracy and 9.26% in F1 score.
arxiv情報
著者 | Dawei Zhu,Xiaoyu Shen,Michael A. Hedderich,Dietrich Klakow |
発行日 | 2023-04-30 13:43:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI