要約
ロングテール データによって引き起こされるモデル バイアスは、広く研究されています。
ただし、サンプル数に基づく測定では、3 つの現象を同時に説明することはできません。(1) 十分なデータが与えられた場合、サンプルを追加しても分類パフォーマンスの向上はわずかです。
(2) データが不十分な場合、トレーニング サンプルの数が減少すると、分類性能が急激に低下します。
(3) サンプルバランスの取れたデータセットでトレーニングされたモデルは、クラスごとに異なるバイアスを持っています。
この作業では、クラスの機能の多様性を測定するために使用される、クラスのセマンティック スケールを定義して定量化します。
最初の 2 つの現象を完全に説明するセマンティック スケールの限界効果があることを実験的に発見するのは興味深いことです。
さらに、セマンティックスケールの不均衡の定量的測定が提案されています。これは、サンプルバランスのとれたデータであっても、複数のデータセットのモデルバイアスを正確に反映でき、クラスの不均衡の研究に対する新しい視点を明らかにします。
セマンティックスケールの不均衡が蔓延しているため、一般的な損失改善スキームと、反復中にリアルタイムでセマンティックスケールを計算するという課題を克服する動的再重み付けトレーニングフレームワークを含む、セマンティックスケールバランス学習を提案します。
包括的な実験では、ダイナミックなセマンティック スケール バランス学習により、モデルが大規模なロングテールおよび非ロングテールの自然および医療データセットで一貫して優れたパフォーマンスを発揮できることが示されています。
.
要約(オリジナル)
Model bias triggered by long-tailed data has been widely studied. However, measure based on the number of samples cannot explicate three phenomena simultaneously: (1) Given enough data, the classification performance gain is marginal with additional samples. (2) Classification performance decays precipitously as the number of training samples decreases when there is insufficient data. (3) Model trained on sample-balanced datasets still has different biases for different classes. In this work, we define and quantify the semantic scale of classes, which is used to measure the feature diversity of classes. It is exciting to find experimentally that there is a marginal effect of semantic scale, which perfectly describes the first two phenomena. Further, the quantitative measurement of semantic scale imbalance is proposed, which can accurately reflect model bias on multiple datasets, even on sample-balanced data, revealing a novel perspective for the study of class imbalance. Due to the prevalence of semantic scale imbalance, we propose semantic-scale-balanced learning, including a general loss improvement scheme and a dynamic re-weighting training framework that overcomes the challenge of calculating semantic scales in real-time during iterations. Comprehensive experiments show that dynamic semantic-scale-balanced learning consistently enables the model to perform superiorly on large-scale long-tailed and non-long-tailed natural and medical datasets, which is a good starting point for mitigating the prevalent but unnoticed model bias.
arxiv情報
著者 | Yanbiao Ma,Licheng Jiao,Fang Liu,Yuxin Li,Shuyuan Yang,Xu Liu |
発行日 | 2022-12-30 09:40:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google