要約
ディープ ニューラル ネットワークは、その容量が大きいため、ノイズの多いラベルにも簡単にオーバーフィットする可能性があり、モデルの汎化パフォーマンスが低下します。
この問題を克服するために、ポストトレーニングを介してノイズの多いラベル (LNL) から学習するための新しいアプローチを提案します。これにより、ノイズの多いラベル データに対する事前トレーニング済みモデルの一般化パフォーマンスが大幅に向上します。
この目的のために、トレーニングされたモデルの過適合特性を利用して、誤ってラベル付けされたサンプルを識別します。
具体的には、トレーニング後のアプローチは、決定境界に大きな影響を与えるサンプルを徐々に削除し、決定境界を改良して一般化のパフォーマンスを向上させます。
当社のトレーニング後のアプローチは、既存の LNL メソッドと組み合わせると、大きな相乗効果を生み出します。
さまざまな実世界および合成ベンチマーク データセットに関する実験結果は、さまざまな現実的なシナリオでのアプローチの有効性を示しています。
要約(オリジナル)
Deep neural network can easily overfit to even noisy labels due to its high capacity, which degrades the generalization performance of a model. To overcome this issue, we propose a new approach for learning from noisy labels (LNL) via post-training, which can significantly improve the generalization performance of any pre-trained model on noisy label data. To this end, we rather exploit the overfitting property of a trained model to identify mislabeled samples. Specifically, our post-training approach gradually removes samples with high influence on the decision boundary and refines the decision boundary to improve generalization performance. Our post-training approach creates great synergies when combined with the existing LNL methods. Experimental results on various real-world and synthetic benchmark datasets demonstrate the validity of our approach in diverse realistic scenarios.
arxiv情報
著者 | Seulki Park,Hwanjun Song,Daeho Um,Dae Ung Jo,Sangdoo Yun,Jin Young Choi |
発行日 | 2023-03-17 07:56:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google