要約
マイクロコントローラー ユニット (MCU) は、コストとエネルギー消費が低いため、エッジ アプリケーションに最適なプラットフォームであり、カスタマイズされたモデルによってタスクの適応を強化できるパーソナライズされた機械学習タスクなど、さまざまなアプリケーションで広く使用されています。
ただし、ローカルのオンデバイス パーソナライゼーションに対する既存のアプローチは、ほとんどが単純な ML アーキテクチャをサポートしているか、複雑なローカルの事前トレーニング/トレーニングを必要とするため、エネルギー消費が高くなり、MCU の低エネルギーの利点が無効になります。
このペーパーでは、効率的で低エネルギーの MCU パーソナライゼーション アプローチである $MicroT$ を紹介します。
$MicroT$ には、自己教師ありの知識蒸留によって開発された、堅牢で汎用的だが小規模な特徴抽出機能が含まれており、タスク固有のヘッドをトレーニングして、最小限のエネルギーと計算要件で独立したオンデバイスのパーソナライゼーションを可能にします。
MicroT は、エネルギー コストをさらに削減するために、ステージ決定と呼ばれる MCU に最適化された早期終了推論メカニズムを実装しています。
このメカニズムにより、ユーザーが構成可能な終了基準 (ステージ決定率) を使用して、エネルギー コストとモデルのパフォーマンスのバランスを適応的に調整できます。
2 つのモデル、3 つのデータセット、および 2 つの MCU ボードを使用して MicroT を評価しました。
$MicroT$ は、2 つのモデルと 3 つのデータセットにわたって、従来の転移学習 (TTL) および 2 つの SOTA アプローチよりも 2.12 ~ 11.60% 優れたパフォーマンスを示します。
広く使用されているエネルギー対応エッジ デバイスをターゲットとする MicroT のオンデバイス トレーニングは、追加の複雑な操作を必要とせず、SRAM 使用量を 1 MB 未満に抑えながら、SOTA アプローチと比較してエネルギー コストを最大 2.28 倍削減します。
ローカル推論中、MicroT は 2 つのボードと 2 つのデータセットにわたって TTL と比較してエネルギー コストを 14.17% 削減し、エネルギーを意識したリソースに制約のある MCU での長期使用に適していることを強調しています。
要約(オリジナル)
Microcontroller Units (MCUs) are ideal platforms for edge applications due to their low cost and energy consumption, and are widely used in various applications, including personalized machine learning tasks, where customized models can enhance the task adaptation. However, existing approaches for local on-device personalization mostly support simple ML architectures or require complex local pre-training/training, leading to high energy consumption and negating the low-energy advantage of MCUs. In this paper, we introduce $MicroT$, an efficient and low-energy MCU personalization approach. $MicroT$ includes a robust, general, but tiny feature extractor, developed through self-supervised knowledge distillation, which trains a task-specific head to enable independent on-device personalization with minimal energy and computational requirements. MicroT implements an MCU-optimized early-exit inference mechanism called stage-decision to further reduce energy costs. This mechanism allows for user-configurable exit criteria (stage-decision ratio) to adaptively balance energy cost with model performance. We evaluated MicroT using two models, three datasets, and two MCU boards. $MicroT$ outperforms traditional transfer learning (TTL) and two SOTA approaches by 2.12 – 11.60% across two models and three datasets. Targeting widely used energy-aware edge devices, MicroT’s on-device training requires no additional complex operations, halving the energy cost compared to SOTA approaches by up to 2.28X while keeping SRAM usage below 1MB. During local inference, MicroT reduces energy cost by 14.17% compared to TTL across two boards and two datasets, highlighting its suitability for long-term use on energy-aware resource-constrained MCUs.
arxiv情報
著者 | Yushan Huang,Ranya Aloufi,Xavier Cadet,Yuchen Zhao,Payam Barnaghi,Hamed Haddadi |
発行日 | 2024-10-01 14:08:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google