要約
本稿では、人間の活動認識のための入力データの分布シフトに対処できる、低コストかつ低消費電力の小型教師ありオンデバイス学習(ODL)コアを紹介する。リソースが限られたエッジデバイスのためのODLは最近研究されているが、実行時にこれらのデバイスに学習ラベルを提供する具体的な方法は未解決のままである。この問題に対処するため、我々は、教師ありODLに自動データ刈り込みを組み合わせることで、近くの教師デバイスから予測ラベルを取得するために必要なクエリの回数を減らし、モデルの再学習時の消費電力を節約することを提案する。データ刈り込みの閾値は自動的に調整されるため、手動による閾値調整は不要である。人間の活動認識のための数mWの極小MLソリューションとして、我々は45nm CMOSプロセス技術を用いて、自動データ刈り込みをサポートする教師ありODLコアを設計する。このコアに必要なメモリサイズは、同じ形状の多層パーセプトロン(MLP)よりも小さく、消費電力はわずか3.39mWであることを示す。人間の活動認識データセットを用いた実験では、提案する自動データ刈り込みにより、わずか0.9%の精度低下で、通信量を55.7%削減し、それに伴い消費電力も削減できることが示された。
要約(オリジナル)
In this paper, we introduce a low-cost and low-power tiny supervised on-device learning (ODL) core that can address the distributional shift of input data for human activity recognition. Although ODL for resource-limited edge devices has been studied recently, how exactly to provide the training labels to these devices at runtime remains an open-issue. To address this problem, we propose to combine an automatic data pruning with supervised ODL to reduce the number queries needed to acquire predicted labels from a nearby teacher device and thus save power consumption during model retraining. The data pruning threshold is automatically tuned, eliminating a manual threshold tuning. As a tinyML solution at a few mW for the human activity recognition, we design a supervised ODL core that supports our automatic data pruning using a 45nm CMOS process technology. We show that the required memory size for the core is smaller than the same-shaped multilayer perceptron (MLP) and the power consumption is only 3.39mW. Experiments using a human activity recognition dataset show that the proposed automatic data pruning reduces the communication volume by 55.7% and power consumption accordingly with only 0.9% accuracy loss.
arxiv情報
著者 | Hiroki Matsutani,Radu Marculescu |
発行日 | 2024-08-02 14:09:39+00:00 |
arxivサイト | arxiv_id(pdf) |