Boosting Single Positive Multi-label Classification with Generalized Robust Loss

要約

マルチラベル学習(MLL)は、包括的な多義的注釈を必要とするが、この注釈を完全に得ることは困難であるため、しばしばラベル欠損のシナリオが発生する。本論文では、各画像が単に1つの正のラベルと関連付けられる単一正多ラベル学習(Single Positive Multi-label Learning: SPML)を研究する。既存のSPML手法は、ハード擬似ラベリングやロバストロスのようなメカニズムを用いた損失設計にのみ焦点を当てており、ほとんどの場合、許容できない偽陰性をもたらす。この問題に対処するために、我々はまず、ソフトな擬似ラベルを提供するために、期待リスク最小化に基づく一般化された損失の枠組みを提案し、以前の損失が我々の枠組みにシームレスに変換できることを指摘する。特に、偽陽性と偽陰性の間の柔軟な調整を享受し、さらに陽性サンプルと陰性サンプルの間の不均衡に対処することができる、我々のフレームワークに基づいた新しいロバスト損失を設計する。広範な実験により、我々のアプローチがSPMLの性能を大幅に向上させ、4つのベンチマーク全てにおいて大多数の最新手法を凌駕することが示された。

要約(オリジナル)

Multi-label learning (MLL) requires comprehensive multi-semantic annotations that is hard to fully obtain, thus often resulting in missing labels scenarios. In this paper, we investigate Single Positive Multi-label Learning (SPML), where each image is associated with merely one positive label. Existing SPML methods only focus on designing losses using mechanisms such as hard pseudo-labeling and robust losses, mostly leading to unacceptable false negatives. To address this issue, we first propose a generalized loss framework based on expected risk minimization to provide soft pseudo labels, and point out that the former losses can be seamlessly converted into our framework. In particular, we design a novel robust loss based on our framework, which enjoys flexible coordination between false positives and false negatives, and can additionally deal with the imbalance between positive and negative samples. Extensive experiments show that our approach can significantly improve SPML performance and outperform the vast majority of state-of-the-art methods on all the four benchmarks.

arxiv情報

著者 Yanxi Chen,Chunxiao Li,Xinyang Dai,Jinhuan Li,Weiyu Sun,Yiming Wang,Renyuan Zhang,Tinghe Zhang,Bo Wang
発行日 2024-05-06 14:13:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク