Learning with Neighbor Consistency for Noisy Labels

要約

最近の深層学習の進歩は、大容量のモデルを学習するために、ラベル付きの大規模なデータセットに依存しています。しかし、時間的・費用的に効率の良い方法で大規模なデータセットを収集すると、ラベルノイズが発生することが多い。我々は、特徴空間における学習例間の類似性を活用し、各例の予測がその最近傍と類似するように促す、ノイズの多いラベルからの学習方法を提示する。複数のモデルや個別の段階を用いる学習アルゴリズムと比較して、我々のアプローチは単純な正則化項の追加という形式をとる。これは、古典的な帰納的ラベル伝搬アルゴリズムの帰納的バージョンとして解釈できる。我々は、合成ノイズ(CIFAR-10, CIFAR-100)と現実的ノイズ(mini-WebVision, WebVision, Clothing1M, mini-ImageNet-Red )の両方を評価するデータセットで我々の手法を徹底的に評価し、それらすべてにおいて競争的または最新の精度を達成した。

要約(オリジナル)

Recent advances in deep learning have relied on large, labelled datasets to train high-capacity models. However, collecting large datasets in a time- and cost-efficient manner often results in label noise. We present a method for learning from noisy labels that leverages similarities between training examples in feature space, encouraging the prediction of each example to be similar to its nearest neighbours. Compared to training algorithms that use multiple models or distinct stages, our approach takes the form of a simple, additional regularization term. It can be interpreted as an inductive version of the classical, transductive label propagation algorithm. We thoroughly evaluate our method on datasets evaluating both synthetic (CIFAR-10, CIFAR-100) and realistic (mini-WebVision, WebVision, Clothing1M, mini-ImageNet-Red) noise, and achieve competitive or state-of-the-art accuracies across all of them.

arxiv情報

著者 Ahmet Iscen,Jack Valmadre,Anurag Arnab,Cordelia Schmid
発行日 2022-07-06 11:14:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク