12 mJ per Class On-Device Online Few-Shot Class-Incremental Learning

要約

Few-Shot Class-Incremental Learning (FSCIL) を使用すると、機械学習システムは、以前に学習したクラスを忘れることなく、少数のラベル付きサンプルのみを使用して推論機能を新しいクラスに拡張できます。
古典的なバックプロパゲーションベースの学習とその変形は、多くの場合、バッテリー駆動でメモリに制約のある極限エッジのシステムには適していません。
この研究では、事前トレーニングおよびメタル学習された特徴抽出器と、クラスのプロトタイプを保存する拡張可能な明示的メモリで構成される軽量モデルに基づいた、オンライン フューショット クラス増分学習 (O-FSCIL) を導入します。
このアーキテクチャは、新しい機能の直交性正則化で事前トレーニングされ、マルチマージン損失でメタル学習されます。
新しいクラスを学習するために、私たちのアプローチは新しいクラスのプロトタイプを使用して明示的メモリを拡張しますが、残りのアーキテクチャは凍結されたままになります。
これにより、わずか数例に基づいて、これまで見たことのないクラスを 1 回のパスで (したがってオンラインで) 学習できるようになります。
O-FSCIL は、FSCIL CIFAR100 ベンチマークで平均 68.62% の精度を達成し、最先端の結果を達成しました。
超低電力プラットフォーム向けに調整された O-FSCIL を 60 mW GAP9 マイクロコントローラーに実装し、新しいクラスあたりわずか 12 mJ 以内のオンライン学習機能を実証します。

要約(オリジナル)

Few-Shot Class-Incremental Learning (FSCIL) enables machine learning systems to expand their inference capabilities to new classes using only a few labeled examples, without forgetting the previously learned classes. Classical backpropagation-based learning and its variants are often unsuitable for battery-powered, memory-constrained systems at the extreme edge. In this work, we introduce Online Few-Shot Class-Incremental Learning (O-FSCIL), based on a lightweight model consisting of a pretrained and metalearned feature extractor and an expandable explicit memory storing the class prototypes. The architecture is pretrained with a novel feature orthogonality regularization and metalearned with a multi-margin loss. For learning a new class, our approach extends the explicit memory with novel class prototypes, while the remaining architecture is kept frozen. This allows learning previously unseen classes based on only a few examples with one single pass (hence online). O-FSCIL obtains an average accuracy of 68.62% on the FSCIL CIFAR100 benchmark, achieving state-of-the-art results. Tailored for ultra-low-power platforms, we implement O-FSCIL on the 60 mW GAP9 microcontroller, demonstrating online learning capabilities within just 12 mJ per new class.

arxiv情報

著者 Yoga Esa Wibowo,Cristian Cioflan,Thorir Mar Ingolfsson,Michael Hersche,Leo Zhao,Abbas Rahimi,Luca Benini
発行日 2024-03-12 17:43:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク