要約
マイクロコントローラー(TINYML)にディープニューラルネットワーク(DNNS)を展開することは、エッジで生成されるセンサーデータの増加を処理する一般的な傾向ですが、実際には、リソースとレイテンシの制約により、最適なDNN候補を見つけることが困難になります。
ニューラルアーキテクチャ検索(NAS)は、この検索を自動化するための優れたアプローチであり、TINYMLで一般的に使用されるDNN圧縮技術と簡単に組み合わせることができます。
ただし、多くのNAS技術は計算上高価であるだけでなく、特にハイパーパラメーターの最適化(HPO)であるだけでなく、DNNのメモリ要件や計算の複雑さなどの追加の目標を考慮せずに、単一の目的のみを最適化することに焦点を当てることにも焦点を当てています。
エッジで展開を実行可能にするための鍵です。
この論文では、多目的ベイジアン最適化(MOBOPT)と、拡張ランダム検索(ARS)補強学習(RL)エージェントを使用して訓練された競合するパラメトリックポリシーのアンサンブルに基づくTINYMLの新しいNAS戦略を提案します。
私たちの方法論は、DNNの予測精度、特定のターゲットシステムのメモリ要件、および計算の複雑さとの間のトレードオフを効率的に見つけることを目的としています。
私たちの実験は、ResNet-18やMobileNETV3などのさまざまなデータセットやアーキテクチャで既存のMoboptアプローチを常に上回ることを示しています。
要約(オリジナル)
Deploying deep neural networks (DNNs) on microcontrollers (TinyML) is a common trend to process the increasing amount of sensor data generated at the edge, but in practice, resource and latency constraints make it difficult to find optimal DNN candidates. Neural architecture search (NAS) is an excellent approach to automate this search and can easily be combined with DNN compression techniques commonly used in TinyML. However, many NAS techniques are not only computationally expensive, especially hyperparameter optimization (HPO), but also often focus on optimizing only a single objective, e.g., maximizing accuracy, without considering additional objectives such as memory requirements or computational complexity of a DNN, which are key to making deployment at the edge feasible. In this paper, we propose a novel NAS strategy for TinyML based on multi-objective Bayesian optimization (MOBOpt) and an ensemble of competing parametric policies trained using Augmented Random Search (ARS) reinforcement learning (RL) agents. Our methodology aims at efficiently finding tradeoffs between a DNN’s predictive accuracy, memory requirements on a given target system, and computational complexity. Our experiments show that we consistently outperform existing MOBOpt approaches on different datasets and architectures such as ResNet-18 and MobileNetV3.
arxiv情報
著者 | Mark Deutel,Georgios Kontes,Christopher Mutschler,Jürgen Teich |
発行日 | 2025-01-23 15:32:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google