Delving into Semantic Scale Imbalance

要約

ロングテールデータに起因するモデルバイアスは広く研究されている.しかし,サンプル数に基づく測定では,以下の3つの現象を同時に説明することはできない. (1) 十分なデータがある場合,分類性能の向上はサンプル数の増加に伴い限界的である.(2)データが十分でない場合、学習サンプル数の減少に伴い、分類性能は急激に低下する。(3)サンプルバランスのとれたデータセットで学習したモデルは、クラスによって異なるバイアスを持つ。本研究では、クラスの特徴多様性を測るために、クラスの意味スケールを定義し、定量化する。その結果、意味スケールの限界効果が存在することを実験的に発見し、最初の2つの現象を完全に説明することができ、非常にエキサイティングである。さらに、セマンティックスケールの不均衡を定量的に測定する方法を提案し、サンプルバランスのとれたデータであっても、複数のデータセットにおけるモデルの偏りを正確に反映することができ、クラスの不均衡の研究に対する新しい視点を明らかにする。意味スケールの不均衡が広く見られることから、一般的な損失改善スキームと、反復中にリアルタイムで意味スケールを計算するという課題を克服した動的再重み付け学習フレームワークを含む、意味スケールバランス学習を提案する。包括的な実験により、大規模なロングテールおよび非ロングテールの自然・医学データセットにおいて、動的な意味スケールバランス学習により一貫してモデルが優れた性能を発揮することが示され、これは一般的だが気づかれていないモデルの偏りを緩和するための良い出発点であると言える。

要約(オリジナル)

Model bias triggered by long-tailed data has been widely studied. However, measure based on the number of samples cannot explicate three phenomena simultaneously: (1) Given enough data, the classification performance gain is marginal with additional samples. (2) Classification performance decays precipitously as the number of training samples decreases when there is insufficient data. (3) Model trained on sample-balanced datasets still has different biases for different classes. In this work, we define and quantify the semantic scale of classes, which is used to measure the feature diversity of classes. It is exciting to find experimentally that there is a marginal effect of semantic scale, which perfectly describes the first two phenomena. Further, the quantitative measurement of semantic scale imbalance is proposed, which can accurately reflect model bias on multiple datasets, even on sample-balanced data, revealing a novel perspective for the study of class imbalance. Due to the prevalence of semantic scale imbalance, we propose semantic-scale-balanced learning, including a general loss improvement scheme and a dynamic re-weighting training framework that overcomes the challenge of calculating semantic scales in real-time during iterations. Comprehensive experiments show that dynamic semantic-scale-balanced learning consistently enables the model to perform superiorly on large-scale long-tailed and non-long-tailed natural and medical datasets, which is a good starting point for mitigating the prevalent but unnoticed model bias.

arxiv情報

著者 Yanbiao Ma,Licheng Jiao,Fang Liu,Yuxin Li,Shuyuan Yang,Xu Liu
発行日 2023-01-05 06:04:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク