Chameleon: A MatMul-Free Temporal Convolutional Network Accelerator for End-to-End Few-Shot and Continual Learning from Sequential Data

要約

エッジでのデバイス上の学習により、長期的な堅牢性が向上し、メンテナンスコストが削減された低遅延の個人的なパーソナライズが可能になります。
しかし、特に限られた数の例を備えた現実世界のシーケンシャルデータから、スケーラブルで低電力のエンドツーエンドのオンチップ学習を達成することは、オープンな課題です。
実際、エラーをサポートするアクセラレータは、推論の効率を犠牲にしてパフォーマンスを学習するために最適化しますが、単純化された学習アルゴリズムは許容可能な精度ターゲットに到達できないことがよくあります。
この作業では、カメレオンを提示し、これらの課題を解決するために3つの重要な貢献を活用しています。
(i)統一された学習および推論アーキテクチャは、推論ロジックにわずか0.5%エリアオーバーヘッドでの少数のショット学習(FSL)、継続的な学習(CL)、および推論をサポートします。
(ii)長い時間依存性は、時間的畳み込みネットワーク(TCNS)で効率的にキャプチャされ、16 kHzの生のオーディオでの順次データと推論に関するエンドツーエンドのオンチップFSLとCLの最初のデモを可能にします。
(iii)デュアルモード、マトリックスマルチプロテーションのないコンピューテアレイにより、最先端の推論のみのキーワードスポッティング(KWS)アクセラレータの電力消費と一致するか、$ 4.3 \ Times $ Higher Peak Gopsを有効にすることができます。
40 nmのCMOSで製造されたChameleonは、エンドツーエンドのオンチップFSL(96.8%、5ウェイ1ショット、98.8%、5ウェイ5ショット)およびCL(10ショットでの250クラスの学習250クラスの最終精度82.2%の最終精度)のためにオムニグロットに新しい精度記録を設定します。
3.1 $ \ mu $ wの予算。

要約(オリジナル)

On-device learning at the edge enables low-latency, private personalization with improved long-term robustness and reduced maintenance costs. Yet, achieving scalable, low-power end-to-end on-chip learning, especially from real-world sequential data with a limited number of examples, is an open challenge. Indeed, accelerators supporting error backpropagation optimize for learning performance at the expense of inference efficiency, while simplified learning algorithms often fail to reach acceptable accuracy targets. In this work, we present Chameleon, leveraging three key contributions to solve these challenges. (i) A unified learning and inference architecture supports few-shot learning (FSL), continual learning (CL) and inference at only 0.5% area overhead to the inference logic. (ii) Long temporal dependencies are efficiently captured with temporal convolutional networks (TCNs), enabling the first demonstration of end-to-end on-chip FSL and CL on sequential data and inference on 16-kHz raw audio. (iii) A dual-mode, matrix-multiplication-free compute array allows either matching the power consumption of state-of-the-art inference-only keyword spotting (KWS) accelerators or enabling $4.3\times$ higher peak GOPS. Fabricated in 40-nm CMOS, Chameleon sets new accuracy records on Omniglot for end-to-end on-chip FSL (96.8%, 5-way 1-shot, 98.8%, 5-way 5-shot) and CL (82.2% final accuracy for learning 250 classes with 10 shots), while maintaining an inference accuracy of 93.3% on the 12-class Google Speech Commands dataset at an extreme-edge power budget of 3.1 $\mu$W.

arxiv情報

著者 Douwe den Blanken,Charlotte Frenkel
発行日 2025-05-30 17:49:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AR, cs.LG, I.2.6 パーマリンク