Partitioned Memory Storage Inspired Few-Shot Class-Incremental learning

要約

現在の主流の深い学習技術は、広範なトレーニングデータに過度に依存しており、動的な世界への適応性の欠如を示し、人間の知性とのかなりの格差を示しています。
このギャップを埋めるために、少数の授業学習(FSCIL)が登場し、古い知識を忘れることなく、限られたサンプルを持つ新しいカテゴリの継続的な学習に焦点を当てています。
既存のFSCIL研究では、通常、単一のモデルを使用してすべてのセッションで知識を学習し、必然的に安定性塑性ジレンマにつながります。
機械とは異なり、人間はさまざまな脳皮質にさまざまな知識を保存しています。
この特徴に触発された私たちの論文は、各セッションの独立モデルを学習する方法を開発することを目指しています。
それは本質的に壊滅的な忘却を防ぐことができます。
テスト段階では、この方法でモデル展開の不確実性の定量化(UQ)を統合します。
私たちの方法は、FSCILの新たな視点を提供し、CIFAR-100およびMINI-IMAGENETデータセットの最先端のパフォーマンスを実証します。

要約(オリジナル)

Current mainstream deep learning techniques exhibit an over-reliance on extensive training data and a lack of adaptability to the dynamic world, marking a considerable disparity from human intelligence. To bridge this gap, Few-Shot Class-Incremental Learning (FSCIL) has emerged, focusing on continuous learning of new categories with limited samples without forgetting old knowledge. Existing FSCIL studies typically use a single model to learn knowledge across all sessions, inevitably leading to the stability-plasticity dilemma. Unlike machines, humans store varied knowledge in different cerebral cortices. Inspired by this characteristic, our paper aims to develop a method that learns independent models for each session. It can inherently prevent catastrophic forgetting. During the testing stage, our method integrates Uncertainty Quantification (UQ) for model deployment. Our method provides a fresh viewpoint for FSCIL and demonstrates the state-of-the-art performance on CIFAR-100 and mini-ImageNet datasets.

arxiv情報

著者 Renye Zhang,Yimin Yin,Jinghua Zhang
発行日 2025-04-29 14:11:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク