要約
インメモリ コンピューティング (IMC) アーキテクチャに実装されたディープ ニューラル ネットワーク (DNN) のハードウェア効率と精度は、主に DNN アーキテクチャと周辺回路パラメータに依存します。
したがって、最適なパフォーマンスを達成するには、ネットワークと周辺パラメータを総合的に共同検索することが不可欠です。
この目的を達成するために、最適化ベースの設計空間を使用して、アナログ/デジタル コンバータのタイプと精度、クロスバー列の共有、層固有の入力精度などの周辺パラメータと連携してネットワーク アーキテクチャを共同探索する XPert を提案します。
探検。
VGG16 ベースラインと比較して、XPert は、CIFAR10 (TinyImagenet) データセットに対して 92.46% (56.7%) の精度で 10.24 倍 (4.7 倍) 低い EDAP、1.72 倍 (1.62 倍) 高い TOPS/W、1.93 倍 (3 倍) 高い TOPS/mm2 を達成します。
。
この論文のコードは https://github.com/Intelligent-Computing-Lab-Yale/XPert で入手できます。
要約(オリジナル)
The hardware-efficiency and accuracy of Deep Neural Networks (DNNs) implemented on In-memory Computing (IMC) architectures primarily depend on the DNN architecture and the peripheral circuit parameters. It is therefore essential to holistically co-search the network and peripheral parameters to achieve optimal performance. To this end, we propose XPert, which co-searches network architecture in tandem with peripheral parameters such as the type and precision of analog-to-digital converters, crossbar column sharing and the layer-specific input precision using an optimization-based design space exploration. Compared to VGG16 baselines, XPert achieves 10.24x (4.7x) lower EDAP, 1.72x (1.62x) higher TOPS/W,1.93x (3x) higher TOPS/mm2 at 92.46% (56.7%) accuracy for CIFAR10 (TinyImagenet) datasets. The code for this paper is available at https://github.com/Intelligent-Computing-Lab-Yale/XPert.
arxiv情報
著者 | Abhishek Moitra,Abhiroop Bhattacharjee,Youngeun Kim,Priyadarshini Panda |
発行日 | 2023-11-21 17:07:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google