Mutual Exclusive Modulator for Long-Tailed Recognition

要約

タイトル:累積的分類問題のための相互排他モジュレーター

要約:
– 長尾性認識は、カテゴリ間の訓練サンプルが非常に不均衡な場合に、高性能分類子を学習する課題である。
– 既存の多くの研究では、テールクラスの特徴量を強化するか、分類子を再バランスすることで、課題に対処してきた。しかし、それらの解決策は根本的な問題を解決できない可能性がある(テスト時のモデルの性能低下の原因を解決できない)。
– 本研究では、各クラスに対する訓練サンプルが大幅に不均衡であることがLTR問題の原因であることを調査し、3つのグループ(多数、中位数、少数)に分類することを提案する。
– これにより、分類の難易度を下げることができるが、どのグループに割り当てるかという新たな問題が生じる。
– したがって、相互排他的なオブジェクティブで学習され、軽量なモジュールで構成された相互排他モジュレータを導入することを提案する。
– このモジュレータの出力確率は、訓練データセットのデータ量の手がかりとして使用され、分類器の予測を指導するようになる。
– ImageNet-LT、Place-LT、iNaturalist 2018などの複数のデータセットで実験を行い、提案手法が最先端のベンチマークと競合する性能を達成することを示す。

要約(オリジナル)

The long-tailed recognition (LTR) is the task of learning high-performance classifiers given extremely imbalanced training samples between categories. Most of the existing works address the problem by either enhancing the features of tail classes or re-balancing the classifiers to reduce the inductive bias. In this paper, we try to look into the root cause of the LTR task, i.e., training samples for each class are greatly imbalanced, and propose a straightforward solution. We split the categories into three groups, i.e., many, medium and few, according to the number of training images. The three groups of categories are separately predicted to reduce the difficulty for classification. This idea naturally arises a new problem of how to assign a given sample to the right class groups? We introduce a mutual exclusive modulator which can estimate the probability of an image belonging to each group. Particularly, the modulator consists of a light-weight module and learned with a mutual exclusive objective. Hence, the output probabilities of the modulator encode the data volume clues of the training dataset. They are further utilized as prior information to guide the prediction of the classifier. We conduct extensive experiments on multiple datasets, e.g., ImageNet-LT, Place-LT and iNaturalist 2018 to evaluate the proposed approach. Our method achieves competitive performance compared to the state-of-the-art benchmarks.

arxiv情報

著者 Haixu Long,Xiaolin Zhang,Yanbin Liu,Zongtai Luo,Jianbo Liu
発行日 2023-04-11 07:28:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク