Learning from Reduced Labels for Long-Tailed Data

要約

現実世界の分類タスクではロングテール データが蔓延しており、教師付き情報に大きく依存しているため、アノテーション プロセスは非常に労力と時間がかかります。
残念ながら、ラベリングコストを軽減するための一般的なアプローチであるにもかかわらず、既存の弱い教師あり学習手法では、末尾サンプルの教師あり情報を適切に保存するのが難しく、結果として末尾クラスの精度が低下します。
この問題を軽減するために、Reduced Label と呼ばれる新しい弱く監視されたラベル設定を導入します。
提案されたラベリング設定は、テール サンプルの教師あり情報の減少を回避するだけでなく、ロングテール データに関連するラベリング コストも削減します。
さらに、これらの削減ラベルから学ぶための強力な理論的保証を備えた、単純で非常に効率的な公平なフレームワークを提案します。
ImageNet を含むベンチマーク データセットに対して行われた広範な実験により、我々のアプローチの有効性が検証され、最先端の弱い教師付き手法のパフォーマンスを上回りました。

要約(オリジナル)

Long-tailed data is prevalent in real-world classification tasks and heavily relies on supervised information, which makes the annotation process exceptionally labor-intensive and time-consuming. Unfortunately, despite being a common approach to mitigate labeling costs, existing weakly supervised learning methods struggle to adequately preserve supervised information for tail samples, resulting in a decline in accuracy for the tail classes. To alleviate this problem, we introduce a novel weakly supervised labeling setting called Reduced Label. The proposed labeling setting not only avoids the decline of supervised information for the tail samples, but also decreases the labeling costs associated with long-tailed data. Additionally, we propose an straightforward and highly efficient unbiased framework with strong theoretical guarantees to learn from these Reduced Labels. Extensive experiments conducted on benchmark datasets including ImageNet validate the effectiveness of our approach, surpassing the performance of state-of-the-art weakly supervised methods.

arxiv情報

著者 Meng Wei,Zhongnian Li,Yong Zhou,Xinzheng Xu
発行日 2024-03-25 06:50:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク