AggSS: An Aggregated Self-Supervised Approach for Class-Incremental Learning

要約

この論文では、自己教師あり学習、特に画像の回転がさまざまなクラス増分学習パラダイムに及ぼす影響を調査します。
ここでは、事前定義された回転を持つ各画像がトレーニング用の新しいクラスと見なされます。
推論時に、すべての画像回転予測が最終予測のために集約されます。これは、集約自己監視 (AggSS) と呼ばれる戦略です。
AggSS 戦略を通じて学習する際に、ディープ ニューラル ネットワークの注意が固有のオブジェクトの特徴に移っていることが観察されます。
この学習アプローチは、堅牢な特徴学習を促進することにより、クラスの増分学習を大幅に強化します。
AggSS は、あらゆるクラス増分学習フレームワークにシームレスに組み込むことができるプラグ アンド プレイ モジュールとして機能し、その強力な機能学習機能を活用して、さまざまなクラス増分学習アプローチ全体のパフォーマンスを向上させます。
標準的な増分学習データセット CIFAR-100 および ImageNet-Subset に対して行われた広範な実験により、これらのパラダイム内でのパフォーマンス向上における AggSS の重要な役割が実証されました。

要約(オリジナル)

This paper investigates the impact of self-supervised learning, specifically image rotations, on various class-incremental learning paradigms. Here, each image with a predefined rotation is considered as a new class for training. At inference, all image rotation predictions are aggregated for the final prediction, a strategy we term Aggregated Self-Supervision (AggSS). We observe a shift in the deep neural network’s attention towards intrinsic object features as it learns through AggSS strategy. This learning approach significantly enhances class-incremental learning by promoting robust feature learning. AggSS serves as a plug-and-play module that can be seamlessly incorporated into any class-incremental learning framework, leveraging its powerful feature learning capabilities to enhance performance across various class-incremental learning approaches. Extensive experiments conducted on standard incremental learning datasets CIFAR-100 and ImageNet-Subset demonstrate the significant role of AggSS in improving performance within these paradigms.

arxiv情報

著者 Jayateja Kalla,Soma Biswas
発行日 2024-08-08 10:16:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク