Class-Aware Universum Inspired Re-Balance Learning for Long-Tailed Recognition

要約

少数クラスのデータ補強はロングテール認識の有効な手法であり、多くの手法が開発されている。これらの手法はいずれもサンプル量のバランスを確保するものであるが、オーバフィッティング、多様性の欠如、セマンティックドリフトなどの問題が発生しやすく、拡張されたサンプルの質は必ずしも認識にとって満足のいくものではない。そこで、本論文では、Universumにクラスを意識した再バランス学習(CaUIRL)を導入し、サンプルの量と質の両方から少数クラスの再バランスをとるロングテール認識手法を提案する。特に、ベイズの観点から、CaUIRLによって学習された分類器は、バランス条件の下で学習された分類器と整合的であることを理論的に証明する。さらに、外部データに頼らずにクラスを考慮したUniversum(CaU)データを自動的に生成できる高次混合アプローチを開発する。従来のUniversumとは異なり、生成されたUniversumはドメインの類似性、クラスの分離性、サンプルの多様性をさらに考慮したものとなっている。ベンチマークデータを用いた広範な実験により、本手法の驚くべき利点が示される。特に、少数クラスにおけるトップ1精度は、最先端手法と比較して1.9%向上する。

要約(オリジナル)

Data augmentation for minority classes is an effective strategy for long-tailed recognition, thus developing a large number of methods. Although these methods all ensure the balance in sample quantity, the quality of the augmented samples is not always satisfactory for recognition, being prone to such problems as over-fitting, lack of diversity, semantic drift, etc. For these issues, we propose the Class-aware Universum Inspired Re-balance Learning(CaUIRL) for long-tailed recognition, which endows the Universum with class-aware ability to re-balance individual minority classes from both sample quantity and quality. In particular, we theoretically prove that the classifiers learned by CaUIRL are consistent with those learned under the balanced condition from a Bayesian perspective. In addition, we further develop a higher-order mixup approach, which can automatically generate class-aware Universum(CaU) data without resorting to any external data. Unlike the traditional Universum, such generated Universum additionally takes the domain similarity, class separability, and sample diversity into account. Extensive experiments on benchmark datasets demonstrate the surprising advantages of our method, especially the top1 accuracy in minority classes is improved by 1.9% 6% compared to the state-of-the-art method.

arxiv情報

著者 Enhao Zhang,Chuanxing Geng,Songcan Chen
発行日 2022-08-11 08:15:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク