Constructing Balance from Imbalance for Long-tailed Image Recognition

要約

ロングテール画像認識では、多数(ヘッド)クラスと少数(テール)クラスの間のアンバランスが、データ駆動型ディープニューラルネットワークを大きく歪めるため、ディープラーニングシステムに大きな課題を与える。従来の手法では、データ分布、特徴空間、モデル設計などの観点からデータの不均衡に取り組んでいる。本研究では、認識モデルを直接学習するのではなく、ラベル空間のバランスをとるというこれまで省かれていた観点から、分類器学習の前にボトルネックであるhead to tailバイアスに対処することを提案する。Head-to-Tailバイアスを緩和するために、ラベル空間を漸進的に調整し、ヘッドクラスとテールクラスを分割し、アンバランスからバランスを動的に構築し、分類を容易にする簡潔なパラダイムを提案する。柔軟なデータフィルタリングとラベル空間マッピングにより、我々のアプローチを多くの分類モデル、特に非結合型学習法に容易に組み込むことが可能である。また、誘導バイアスの異なる特徴量の間で、head-tailクラスの分離可能性が異なることを見出した。したがって、我々の提案するモデルは、特徴量の評価法を提供し、ロングテール特徴量の学習への道を開くものでもある。広範な実験により、我々の方法が広く使われているベンチマークにおいて、異なるタイプのstate-of-artの性能を向上させることができることが示された。コードは https://github.com/silicx/DLSA で公開されています。

要約(オリジナル)

Long-tailed image recognition presents massive challenges to deep learning systems since the imbalance between majority (head) classes and minority (tail) classes severely skews the data-driven deep neural networks. Previous methods tackle with data imbalance from the viewpoints of data distribution, feature space, and model design, etc.In this work, instead of directly learning a recognition model, we suggest confronting the bottleneck of head-to-tail bias before classifier learning, from the previously omitted perspective of balancing label space. To alleviate the head-to-tail bias, we propose a concise paradigm by progressively adjusting label space and dividing the head classes and tail classes, dynamically constructing balance from imbalance to facilitate the classification. With flexible data filtering and label space mapping, we can easily embed our approach to most classification models, especially the decoupled training methods. Besides, we find the separability of head-tail classes varies among different features with different inductive biases. Hence, our proposed model also provides a feature evaluation method and paves the way for long-tailed feature learning. Extensive experiments show that our method can boost the performance of state-of-the-arts of different types on widely-used benchmarks. Code is available at https://github.com/silicx/DLSA.

arxiv情報

著者 Yue Xu,Yong-Lu Li,Jiefeng Li,Cewu Lu
発行日 2022-08-04 10:22:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク