要約
ロングテール (LT) 分類は、現実世界では避けられない困難な問題です。
既存のロングテール分類法のほとんどは、属性に関する不均衡を無視し、クラスに関する不均衡を解決することのみに焦点を当てています。
分類モデルの逸脱は、クラス単位と属性単位の両方の不均衡によって引き起こされます。
ほとんどのデータセットでは属性が暗黙的であり、属性の組み合わせが複雑であるため、属性ごとの不均衡の処理はより困難になります。
この目的のために、我々は、不変特徴学習による多粒度分類モデルの構築を目的とした、新しいロングテール分類フレームワークを提案しました。
このメソッドは、クラス内の属性の分布をより適切に特徴付けるために、まず教師なしで粗粒フォレスト (CLF) を構築します。
属性の分布に応じて、適切なサンプリング戦略をカスタマイズして、さまざまな不均衡なデータセットを構築できます。
次に、特徴学習プロセス中に混乱を招く属性を徐々に排除することを目的とした多中心損失 (MCL) を導入します。
提案されたフレームワークは、必ずしも特定の LT 分類モデル構造に結合しているわけではなく、独立したコンポーネントとして既存の LT 手法と統合できます。
広範な実験により、私たちのアプローチが既存のベンチマーク ImageNet-GLT と MSCOCO-GLT の両方で最先端のパフォーマンスを達成し、既存の LT 手法のパフォーマンスを向上できることが示されています。
私たちのコードは GitHub で入手できます: \url{https://github.com/jinyery/cognisance}
要約(オリジナル)
Long-tailed (LT) classification is an unavoidable and challenging problem in the real world. Most existing long-tailed classification methods focus only on solving the class-wise imbalance while ignoring the attribute-wise imbalance. The deviation of a classification model is caused by both class-wise and attribute-wise imbalance. Due to the fact that attributes are implicit in most datasets and the combination of attributes is complex, attribute-wise imbalance is more difficult to handle. For this purpose, we proposed a novel long-tailed classification framework, aiming to build a multi-granularity classification model by means of invariant feature learning. This method first unsupervisedly constructs Coarse-Grained forest (CLF) to better characterize the distribution of attributes within a class. Depending on the distribution of attributes, one can customize suitable sampling strategies to construct different imbalanced datasets. We then introduce multi-center loss (MCL) that aims to gradually eliminate confusing attributes during feature learning process. The proposed framework does not necessarily couple to a specific LT classification model structure and can be integrated with any existing LT method as an independent component. Extensive experiments show that our approach achieves state-of-the-art performance on both existing benchmarks ImageNet-GLT and MSCOCO-GLT and can improve the performance of existing LT methods. Our codes are available on GitHub: \url{https://github.com/jinyery/cognisance}
arxiv情報
著者 | Jinye Yang,Ji Xu,Di Wu,Jianhang Tang,Shaobo Li,Guoyin Wang |
発行日 | 2024-08-15 13:38:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google