XPert: Peripheral Circuit & Neural Architecture Co-search for Area and Energy-efficient Xbar-based Computing

要約

インメモリ コンピューティング (IMC) アーキテクチャに実装されたディープ ニューラル ネットワーク (DNN) のハードウェア効率と精度は、主に DNN アーキテクチャと周辺回路パラメータに依存します。
したがって、最適なパフォーマンスを達成するには、ネットワークと周辺パラメータを総合的に共同検索することが不可欠です。
この目的を達成するために、最適化ベースの設計空間を使用して、アナログ/デジタル コンバータのタイプと精度、クロスバー列の共有、層固有の入力精度などの周辺パラメータと連携してネットワーク アーキテクチャを共同探索する XPert を提案します。
探検。
VGG16 ベースラインと比較して、XPert は、CIFAR10 (TinyImagenet) データセットに対して 92.46% (56.7%) の精度で 10.24 倍 (4.7 倍) 低い EDAP、1.72 倍 (1.62 倍) 高い TOPS/W、1.93 倍 (3 倍) 高い TOPS/mm2 を達成します。

この論文のコードは https://github.com/Intelligent-Computing-Lab-Yale/XPert で入手できます。

要約(オリジナル)

The hardware-efficiency and accuracy of Deep Neural Networks (DNNs) implemented on In-memory Computing (IMC) architectures primarily depend on the DNN architecture and the peripheral circuit parameters. It is therefore essential to holistically co-search the network and peripheral parameters to achieve optimal performance. To this end, we propose XPert, which co-searches network architecture in tandem with peripheral parameters such as the type and precision of analog-to-digital converters, crossbar column sharing and the layer-specific input precision using an optimization-based design space exploration. Compared to VGG16 baselines, XPert achieves 10.24x (4.7x) lower EDAP, 1.72x (1.62x) higher TOPS/W,1.93x (3x) higher TOPS/mm2 at 92.46% (56.7%) accuracy for CIFAR10 (TinyImagenet) datasets. The code for this paper is available at https://github.com/Intelligent-Computing-Lab-Yale/XPert.

arxiv情報

著者 Abhishek Moitra,Abhiroop Bhattacharjee,Youngeun Kim,Priyadarshini Panda
発行日 2023-11-21 17:07:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク