Learning advisor networks for noisy image classification

要約

本論文では、画像分類におけるノイズの多いラベルの問題に対処するために、アドバイザネットワークという新しい概念を導入した。ディープニューラルネットワーク(DNN)は、ノイズの多いアノテーションを持つ学習データに対して、性能低下やオーバーフィットの問題が発生しやすい。重み付け損失法は、訓練中にノイズの多いラベルの影響を緩和することを目的とし、その寄与を完全に取り除く。この廃棄処理により、DNNが画像とその正しいラベルの間の誤った関連付けを学習することを防ぐが、特にサンプルのほとんどがノイズの多いラベルを持つ場合、使用するデータ量が減少する。これとは異なり,我々の手法は,各データの損失値を変更することなく,分類器から直接抽出された特徴量を重み付けする.この助言者は,誤ラベルの例に存在する情報の一部のみに着目し,分類器がそのデータも活用できるようにするのに役立つ.アドバイザーの学習はメタ学習により行われ、メインモデルの学習中に適応することができる。本手法を合成ノイズを含むCIFAR10とCIFAR100、および実環境のノイズを含むClothing1Mでテストし、最先端の結果を報告する。

要約(オリジナル)

In this paper, we introduced the novel concept of advisor network to address the problem of noisy labels in image classification. Deep neural networks (DNN) are prone to performance reduction and overfitting problems on training data with noisy annotations. Weighting loss methods aim to mitigate the influence of noisy labels during the training, completely removing their contribution. This discarding process prevents DNNs from learning wrong associations between images and their correct labels but reduces the amount of data used, especially when most of the samples have noisy labels. Differently, our method weighs the feature extracted directly from the classifier without altering the loss value of each data. The advisor helps to focus only on some part of the information present in mislabeled examples, allowing the classifier to leverage that data as well. We trained it with a meta-learning strategy so that it can adapt throughout the training of the main model. We tested our method on CIFAR10 and CIFAR100 with synthetic noise, and on Clothing1M which contains real-world noise, reporting state-of-the-art results.

arxiv情報

著者 Simone Ricci,Tiberio Uricchio,Alberto Del Bimbo
発行日 2022-11-08 11:44:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク