Prototype-Anchored Learning for Learning with Imperfect Annotations

要約

ディープニューラルネットワークの成功は、大量の高品質の注釈付きデータの可用性に大きく依存していますが、取得するのは困難または費用がかかります。
結果として得られるラベルは、クラスの不均衡、ノイズの多い、または人間の偏見である可能性があります。
不完全に注釈が付けられたデータセットから偏りのない分類モデルを学習することは困難です。このデータセットでは、通常、過剰適合または過適合に悩まされています。
この作業では、一般的なソフトマックス損失とマージンベースの損失を徹底的に調査し、最小サンプルマージンを最大化することによって汎化誤差の限界を厳しくするための実行可能なアプローチを提供します。
さらに、この目的のための最適条件を導き出します。これは、クラスのプロトタイプをどのように固定するかを示します。
理論的分析に動機付けられて、私たちはシンプルで効果的な方法、すなわちプロトタイプアンカー学習(PAL)を提案します。これは、不完全な注釈を処理するためにさまざまな学習ベースの分類スキームに簡単に組み込むことができます。
合成データセットと実世界のデータセットでの広範な実験により、クラスの不均衡な学習とノイズ耐性のある学習に対するPALの有効性を検証します。

要約(オリジナル)

The success of deep neural networks greatly relies on the availability of large amounts of high-quality annotated data, which however are difficult or expensive to obtain. The resulting labels may be class imbalanced, noisy or human biased. It is challenging to learn unbiased classification models from imperfectly annotated datasets, on which we usually suffer from overfitting or underfitting. In this work, we thoroughly investigate the popular softmax loss and margin-based loss, and offer a feasible approach to tighten the generalization error bound by maximizing the minimal sample margin. We further derive the optimality condition for this purpose, which indicates how the class prototypes should be anchored. Motivated by theoretical analysis, we propose a simple yet effective method, namely prototype-anchored learning (PAL), which can be easily incorporated into various learning-based classification schemes to handle imperfect annotation. We verify the effectiveness of PAL on class-imbalanced learning and noise-tolerant learning by extensive experiments on synthetic and real-world datasets.

arxiv情報

著者 Xiong Zhou,Xianming Liu,Deming Zhai,Junjun Jiang,Xin Gao,Xiangyang Ji
発行日 2022-06-23 10:25:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク