Establishment of Neural Networks Robust to Label Noise

要約

タイトル:ラベルノイズに強いニューラルネットワークの確立

要約:

– ラベルノイズは、深層学習モデルのトレーニングにおける重要な障害であり、特に画像分類モデルに大きな影響を与える。
– ラベルノイズは、深層ニューラルネットワークがノイズラベルを記憶する傾向があるため、特に影響を受けやすい。
– 本論文では、関連するラベルノイズアプローチの基本的な概念について検討し、過渡行列の推定器を作成し、実際の過渡行列に対する有効性を実証した。
– さらに、LeNetとAlexNetデザインの2つの畳み込みニューラルネットワーク分類器のラベルノイズ耐性を検証した。
– 2つのFashionMINISTデータセットにより、両方のモデルの堅牢性が示された。
– 深層畳み込みニューラルネットワークモデルを正しく調整できないため、過渡行列ノイズ補正の堅牢性向上の影響を効率的に示すことができていない。
– 今後の研究では、ニューラルネットワークモデルの微調整と推定過渡モデルの精度の探索に向けた追加の取り組みが必要である。

要約(オリジナル)

Label noise is a significant obstacle in deep learning model training. It can have a considerable impact on the performance of image classification models, particularly deep neural networks, which are especially susceptible because they have a strong propensity to memorise noisy labels. In this paper, we have examined the fundamental concept underlying related label noise approaches. A transition matrix estimator has been created, and its effectiveness against the actual transition matrix has been demonstrated. In addition, we examined the label noise robustness of two convolutional neural network classifiers with LeNet and AlexNet designs. The two FashionMINIST datasets have revealed the robustness of both models. We are not efficiently able to demonstrate the influence of the transition matrix noise correction on robustness enhancements due to our inability to correctly tune the complex convolutional neural network model due to time and computing resource constraints. There is a need for additional effort to fine-tune the neural network model and explore the precision of the estimated transition model in future research.

arxiv情報

著者 Pengwei Yang,Chongyangzi Teng,Jack George Mangos
発行日 2023-04-24 02:43:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク