Rethinking Few-Shot Class-Incremental Learning with Open-Set Hypothesis in Hyperbolic Geometry

要約

Few-Shot Class-Incremental Learning(FSCIL)は、過剰適合と壊滅的な忘却を同時に回避することにより、いくつかのラベル付きサンプルから新しいクラスを段階的に学習することを目的としています。
FSCILの現在のプロトコルは、一般的なクラス増分学習設定を模倣することによって構築されていますが、データ構成が異なるため、完全に適切ではありません。つまり、新しいクラスはすべて限られたデータレジームにあります。
この論文では、最初のセッションで着信カテゴリの可能性を確保することにより、オープンセット仮説を使用してFSCILの構成を再考します。
モデルにクローズセットとオープンセットの両方の認識でより良いパフォーマンスを割り当てるために、双曲線逆数ポイント学習モジュール(Hyper-RPL)は、双曲線ニューラルネットワークを使用した逆数ポイント学習(RPL)に基づいて構築されています。
さらに、限られたラベル付きデータから新しいカテゴリを学習するために、双曲線メトリック学習(Hyper-Metric)モジュールを蒸留ベースのフレームワークに組み込んで、過剰適合の問題を軽減し、古い知識の保存と
新しい知識の習得。
3つのベンチマークデータセットで提案された構成とモジュールの包括的な評価が実行され、3つの評価指標に関する有効性が検証されます。

要約(オリジナル)

Few-Shot Class-Incremental Learning (FSCIL) aims at incrementally learning novel classes from a few labeled samples by avoiding the overfitting and catastrophic forgetting simultaneously. The current protocol of FSCIL is built by mimicking the general class-incremental learning setting, while it is not totally appropriate due to the different data configuration, i.e., novel classes are all in the limited data regime. In this paper, we rethink the configuration of FSCIL with the open-set hypothesis by reserving the possibility in the first session for incoming categories. To assign better performances on both close-set and open-set recognition to the model, Hyperbolic Reciprocal Point Learning module (Hyper-RPL) is built on Reciprocal Point Learning (RPL) with hyperbolic neural networks. Besides, for learning novel categories from limited labeled data, we incorporate a hyperbolic metric learning (Hyper-Metric) module into the distillation-based framework to alleviate the overfitting issue and better handle the trade-off issue between the preservation of old knowledge and the acquisition of new knowledge. The comprehensive assessments of the proposed configuration and modules on three benchmark datasets are executed to validate the effectiveness concerning three evaluation indicators.

arxiv情報

著者 Yawen Cui,Zitong Yu,Wei Peng,Li Liu
発行日 2022-07-20 15:13:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク