要約
この論文では、低電力機械学習アクセラレータにおける memristive および memcapacitive クロスバー アレイの利用法を調査し、ディープ ニューラル ネットワーク (DNN) のための包括的な共同設計フレームワークを提供します。
このモデルは、Python と PyTorch のハイブリッド アプローチを通じて実装されており、さまざまな非理想性を考慮しており、8 層 VGG ネットワーク上で memristive および memcapacitive クロスバー アレイを備えた CIFAR-10 データセットに対して 90.02% および 91.03% という優れたトレーニング精度を達成しています。
さらに、この論文では、オペレーショナル トランスコンダクタンス アンプ (OTA) とコンデンサを使用してメミンダクタ デバイスをエミュレートする新しいアプローチを紹介し、調整可能な動作を紹介しています。
60 MHz で動作する 180 nm CMOS テクノロジでのトランジスタ レベルのシミュレーションにより、提案されたメミンダクター エミュレータが 0.337 mW の消費電力で実行可能であることが実証されました。
この設計はニューロモーフィック回路と CNN アクセラレータでさらに検証され、トレーニングとテストの精度がそれぞれ 91.04% と 88.82% に達しました。
特に、MOS トランジスタのみを使用することで、モノリシック IC 製造の実現可能性が保証されます。
この研究は、効率的で高性能な機械学習アプリケーションのための高度なハードウェア ソリューションの探求に大きく貢献します。
要約(オリジナル)
The thesis investigates the utilization of memristive and memcapacitive crossbar arrays in low-power machine learning accelerators, offering a comprehensive co-design framework for deep neural networks (DNN). The model, implemented through a hybrid Python and PyTorch approach, accounts for various non-idealities, achieving exceptional training accuracies of 90.02% and 91.03% for the CIFAR-10 dataset with memristive and memcapacitive crossbar arrays on an 8-layer VGG network. Additionally, the thesis introduces a novel approach to emulate meminductor devices using Operational Transconductance Amplifiers (OTA) and capacitors, showcasing adjustable behavior. Transistor-level simulations in 180 nm CMOS technology, operating at 60 MHz, demonstrate the proposed meminductor emulator’s viability with a power consumption of 0.337 mW. The design is further validated in neuromorphic circuits and CNN accelerators, achieving training and testing accuracies of 91.04% and 88.82%, respectively. Notably, the exclusive use of MOS transistors ensures the feasibility of monolithic IC fabrication. This research significantly contributes to the exploration of advanced hardware solutions for efficient and high-performance machine-learning applications.
arxiv情報
著者 | Ankur Singh |
発行日 | 2024-03-05 14:28:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google