Combating Label Noise With A General Surrogate Model For Sample Selection

要約

最新の深層学習システムは大量のデータを必要とします。
Web データを使用した学習は実現可能なソリューションの 1 つですが、必然的にラベル ノイズが発生し、ディープ ニューラル ネットワークのパフォーマンスが妨げられる可能性があります。
サンプルの選択は、ラベル ノイズに対処する効果的な方法です。
重要なのは、何らかの基準に基づいてきれいなサンプルを分離することです。
以前の方法では、損失が小さいサンプルがクリーンなサンプルと見なされる、損失が小さい基準にさらに注意が払われていました。
それにもかかわらず、そのような戦略は各データ インスタンスの学習ダイナミクスに依存しています。
頻繁に発生する破損した学習パターンにより、一部のノイズの多いサンプルがまだ記憶されています。
この問題に取り組むには、暗記の影響を受けず、トレーニング不要のサロゲート モデルが推奨されます。
この研究では、視覚言語サロゲート モデル CLIP を活用して、ノイズの多いサンプルを自動的にフィルタリングすることを提案します。
CLIP は、テキストと画像の位置合わせ機能により、外部の知識をもたらし、クリーンなサンプルの選択を容易にします。
さらに、マージン適応損失は、CLIP によって導入された選択バイアスを正規化するように設計されており、ラベル ノイズに対する堅牢性を提供します。
現実世界と合成のノイズを含むデータセットの両方で、提案した方法の有効性を検証します。
私たちの方法は、推論段階で CLIP を使用せずに大幅な改善を達成しました。

要約(オリジナル)

Modern deep learning systems are data-hungry. Learning with web data is one of the feasible solutions, but will introduce label noise inevitably, which can hinder the performance of deep neural networks. Sample selection is an effective way to deal with label noise. The key is to separate clean samples based on some criterion. Previous methods pay more attention to the small loss criterion where small-loss samples are regarded as clean ones. Nevertheless, such a strategy relies on the learning dynamics of each data instance. Some noisy samples are still memorized due to frequently occurring corrupted learning patterns. To tackle this problem, a training-free surrogate model is preferred, freeing from the effect of memorization. In this work, we propose to leverage the vision-language surrogate model CLIP to filter noisy samples automatically. CLIP brings external knowledge to facilitate the selection of clean samples with its ability of text-image alignment. Furthermore, a margin adaptive loss is designed to regularize the selection bias introduced by CLIP, providing robustness to label noise. We validate the effectiveness of our proposed method on both real-world and synthetic noisy datasets. Our method achieves significant improvement without CLIP involved during the inference stage.

arxiv情報

著者 Chao Liang,Linchao Zhu,Humphrey Shi,Yi Yang
発行日 2023-10-16 14:43:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク