Analyze the Robustness of Classifiers under Label Noise

要約

この研究では、複雑な現実世界のシナリオにおけるノイズを含むデータに対するモデルの復元力を強化することを目的として、ラベル ノイズ分類器の堅牢性を調査します。
教師あり学習におけるラベル ノイズは、誤ったラベルや不正確なラベルによって特徴付けられ、モデルのパフォーマンスを大幅に低下させます。
この研究は、実際のアプリケーションに対するラベルノイズの影響という、ますます重要になっている問題に焦点を当てています。
不正確なトレーニング データ ラベルという一般的な課題に対処し、敵対的機械学習 (AML) と重要度の再重み付け技術を統合します。
私たちのアプローチには、基礎モデルとして畳み込みニューラル ネットワーク (CNN) を採用し、個々のトレーニング サンプルのパラメーター調整に重点を置いています。
この戦略は、パフォーマンスに重大な影響を与えるサンプルに対するモデルの焦点を高めるように設計されています。

要約(オリジナル)

This study explores the robustness of label noise classifiers, aiming to enhance model resilience against noisy data in complex real-world scenarios. Label noise in supervised learning, characterized by erroneous or imprecise labels, significantly impairs model performance. This research focuses on the increasingly pertinent issue of label noise’s impact on practical applications. Addressing the prevalent challenge of inaccurate training data labels, we integrate adversarial machine learning (AML) and importance reweighting techniques. Our approach involves employing convolutional neural networks (CNN) as the foundational model, with an emphasis on parameter adjustment for individual training samples. This strategy is designed to heighten the model’s focus on samples critically influencing performance.

arxiv情報

著者 Cheng Zeng,Yixuan Xu,Jiaqi Tian
発行日 2023-12-12 13:51:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク