SplitNet: Learnable Clean-Noisy Label Splitting for Learning with Noisy Labels

要約

データセットに高品質のラベルを付けることは、ディープ ネットワークのパフォーマンスにとって非常に重要ですが、実際のシナリオでは、ラベルがノイズによって汚染されることがよくあります。
これに対処するために、クリーン ラベルとノイズ ラベルを自動的に分割し、ノイズ ラベルを使用した学習 (LNL) フレームワークで半教師付き学習者を学習する方法がいくつか提案されました。
ただし、彼らはクリーンノイズの多いラベル分割のために手作りのモジュールを活用しており、半教師あり学習段階で確認バイアスを誘発し、パフォーマンスを制限しています。
このホワイト ペーパーでは、SplitNet と呼ばれるクリーン ノイズ ラベル分割用の学習可能なモジュールと、LNL タスクの SplitNet とメイン ネットワークを補完的にトレーニングする新しい LNL フレームワークを初めて紹介します。
半教師あり学習者をより適切に最適化するために、SplitNet による分割信頼度に基づく動的しきい値を使用することを提案します。
SplitNet トレーニングを強化するために、リスク ヘッジ方法も提示します。
提案された方法は、特にさまざまな LNL ベンチマークの高いノイズ比設定で最先端のレベルで実行されます。

要約(オリジナル)

Annotating the dataset with high-quality labels is crucial for performance of deep network, but in real world scenarios, the labels are often contaminated by noise. To address this, some methods were proposed to automatically split clean and noisy labels, and learn a semi-supervised learner in a Learning with Noisy Labels (LNL) framework. However, they leverage a handcrafted module for clean-noisy label splitting, which induces a confirmation bias in the semi-supervised learning phase and limits the performance. In this paper, we for the first time present a learnable module for clean-noisy label splitting, dubbed SplitNet, and a novel LNL framework which complementarily trains the SplitNet and main network for the LNL task. We propose to use a dynamic threshold based on a split confidence by SplitNet to better optimize semi-supervised learner. To enhance SplitNet training, we also present a risk hedging method. Our proposed method performs at a state-of-the-art level especially in high noise ratio settings on various LNL benchmarks.

arxiv情報

著者 Daehwan Kim,Kwangrok Ryoo,Hansang Cho,Seungryong Kim
発行日 2022-12-19 13:30:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク