要約
少数ショットクラス増分学習 (FSCIL) は、限られた新規クラスのサンプルを使用して新規クラスを継続的に認識することを目的としています。
FSCIL の主流のベースラインは、まずベース セッションでモデル全体をトレーニングし、次に増分セッションで特徴抽出プログラムをフリーズします。
全体的に高い精度を達成しているにもかかわらず、ほとんどのメソッドは増分クラスの精度が著しく低いことを示します。
最近のいくつかの方法では、インクリメンタル セッションで特徴抽出器を微調整することで、ベース クラスとインクリメンタル クラス間の精度の不均衡をある程度緩和しますが、過去と現在のインクリメンタル クラス間の精度の不均衡はさらに生じます。
この論文では、FSCIL のこのような分類精度の不均衡の原因を研究し、それらを統一モデルのバイアス問題に抽象化します。
分析に基づいて、トレーニングおよび推論プロセス中に FSCIL 問題のモデルバイアスを軽減する新しい方法を提案します。これには、マッピング能力の刺激、個別の二重特徴分類、および自己最適化分類器が含まれます。
広く使用されている 3 つの FSCIL ベンチマーク データセットに対する広範な実験により、私たちの方法がモデルのバイアス問題を大幅に軽減し、最先端のパフォーマンスを達成できることがわかりました。
要約(オリジナル)
Few-shot class-incremental learning (FSCIL) aims at recognizing novel classes continually with limited novel class samples. A mainstream baseline for FSCIL is first to train the whole model in the base session, then freeze the feature extractor in the incremental sessions. Despite achieving high overall accuracy, most methods exhibit notably low accuracy for incremental classes. Some recent methods somewhat alleviate the accuracy imbalance between base and incremental classes by fine-tuning the feature extractor in the incremental sessions, but they further cause the accuracy imbalance between past and current incremental classes. In this paper, we study the causes of such classification accuracy imbalance for FSCIL, and abstract them into a unified model bias problem. Based on the analyses, we propose a novel method to mitigate model bias of the FSCIL problem during training and inference processes, which includes mapping ability stimulation, separately dual-feature classification, and self-optimizing classifiers. Extensive experiments on three widely-used FSCIL benchmark datasets show that our method significantly mitigates the model bias problem and achieves state-of-the-art performance.
arxiv情報
| 著者 | Li-Jun Zhao,Zhen-Duo Chen,Zi-Chao Zhang,Xin Luo,Xin-Shun Xu |
| 発行日 | 2024-02-01 10:37:41+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google