TinyReptile: TinyML with Federated Meta-Learning

要約

【タイトル】TinyReptile:フェデレーテッドメタラーニングを用いたTinyML

【要約】
– TinyMLは、リソース制限されたマイクロコントローラー(MCU)向けに機械学習(ML)を民主化することを目的とした急速に成長している分野である。
– Federated Learning (FL)は、分散したエージェントがローカルデータを共有せずにグローバルモデルを共同で学習することを可能にする。
– フェデレーテッドメタラーニング、及びオンライン学習にインスパイアされたTinyReptileを提案し、各デバイスのデータに応じて迅速に適応できるニューラルネットワークの堅牢な初期化を共同で学習する。
– Raspberry Pi 4やCortex-M4 MCUのようなTinyMLハードウェア上でTinyReptileを実証し、複数のTinyMLユースケースで評価している。
– 同等の性能を持つベースラインアルゴリズムと比較して、リソース削減とトレーニング時間の短縮により、少なくとも2倍の効果が認められた。

要約(オリジナル)

Tiny machine learning (TinyML) is a rapidly growing field aiming to democratize machine learning (ML) for resource-constrained microcontrollers (MCUs). Given the pervasiveness of these tiny devices, it is inherent to ask whether TinyML applications can benefit from aggregating their knowledge. Federated learning (FL) enables decentralized agents to jointly learn a global model without sharing sensitive local data. However, a common global model may not work for all devices due to the complexity of the actual deployment environment and the heterogeneity of the data available on each device. In addition, the deployment of TinyML hardware has significant computational and communication constraints, which traditional ML fails to address. Considering these challenges, we propose TinyReptile, a simple but efficient algorithm inspired by meta-learning and online learning, to collaboratively learn a solid initialization for a neural network (NN) across tiny devices that can be quickly adapted to a new device with respect to its data. We demonstrate TinyReptile on Raspberry Pi 4 and Cortex-M4 MCU with only 256-KB RAM. The evaluations on various TinyML use cases confirm a resource reduction and training time saving by at least two factors compared with baseline algorithms with comparable performance.

arxiv情報

著者 Haoyu Ren,Darko Anicic,Thomas A. Runkler
発行日 2023-04-11 13:11:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.DC, cs.LG パーマリンク