Learning in Imperfect Environment: Multi-Label Classification with Long-Tailed Distribution and Partial Labels

要約

タイトル:不完全な環境での学習:長尾分布と部分的ラベルを持つマルチラベル分類

要約:
– 従来のマルチラベル分類方法は、全てのサンプルが完全にラベル付けされ、同一の分布が仮定されることを前提としています。
– しかし、長尾分布や部分的なラベルを持つ大規模なマルチラベル分類データにおいて、この仮定は現実的でないことがあります。
– この問題に対処するために、部分ラベルと長尾分布を持つマルチラベル分類(PLT-MLC)の新しいタスクを導入しました。
– 従来のLT-MLCおよびPL-MLCアプローチは、PLT-MLCを解決できず、提案されたPLT-MLCベンチマークの性能低下を引き起こしてしまった。
– そのため、不完全なラベルを同時に修正するとともに、学習中にこれらの回収ラベルから学習することを目的とした、\textbf{\method{}}というエンドトゥエンドの学習フレームワークを提案しました。
– LTクラス分布下で、さまざまなサンプルへの注意を自動的に修正するための新しいマルチフォーカルモディファイアロスを提案しました。
– さらに、ヘッドとテールサンプルからモデルの学習効果を蒸留し、ヘッドとテール学習効果に基づくバランス分類器を設計することにより、バランスのとれたトレーニング戦略を開発しました。
– 提案された\method{}は、新しく作成されたPLT-MLCデータセットにおいて、効果的かつ堅牢性に優れ、一般的なMLC、LT-MLC、PL-MLC方法よりも優れた性能を発揮することが実験的に示されました。

要約(オリジナル)

Conventional multi-label classification (MLC) methods assume that all samples are fully labeled and identically distributed. Unfortunately, this assumption is unrealistic in large-scale MLC data that has long-tailed (LT) distribution and partial labels (PL). To address the problem, we introduce a novel task, Partial labeling and Long-Tailed Multi-Label Classification (PLT-MLC), to jointly consider the above two imperfect learning environments. Not surprisingly, we find that most LT-MLC and PL-MLC approaches fail to solve the PLT-MLC, resulting in significant performance degradation on the two proposed PLT-MLC benchmarks. Therefore, we propose an end-to-end learning framework: \textbf{CO}rrection $\rightarrow$ \textbf{M}odificat\textbf{I}on $\rightarrow$ balan\textbf{C}e, abbreviated as \textbf{\method{}}. Our bootstrapping philosophy is to simultaneously correct the missing labels (Correction) with convinced prediction confidence over a class-aware threshold and to learn from these recall labels during training. We next propose a novel multi-focal modifier loss that simultaneously addresses head-tail imbalance and positive-negative imbalance to adaptively modify the attention to different samples (Modification) under the LT class distribution. In addition, we develop a balanced training strategy by distilling the model’s learning effect from head and tail samples, and thus design a balanced classifier (Balance) conditioned on the head and tail learning effect to maintain stable performance for all samples. Our experimental study shows that the proposed \method{} significantly outperforms general MLC, LT-MLC and PL-MLC methods in terms of effectiveness and robustness on our newly created PLT-MLC datasets.

arxiv情報

著者 Wenqiao Zhang,Changshuo Liu,Lingze Zeng,Beng Chin Ooi,Siliang Tang,Yueting Zhuang
発行日 2023-04-20 20:05:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.LG パーマリンク