IMPLY-based Approximate Full Adders for Efficient Arithmetic Operations in Image Processing and Machine Learning

要約

パワーウォールなど、現代のコンピューティングにおけるパフォーマンスの限界を克服するために、新たなコンピューティング パラダイムの重要性が増しています。
近似コンピューティングは、精度は犠牲になりますが、エネルギー効率を大幅に向上させ、待ち時間を短縮することで、有望なソリューションを提供します。
もう 1 つの新しい手法は、フォン ノイマンのボトルネックを克服する可能性を秘めたメモリスタ ベースのインメモリ コンピューティング (IMC) です。
この研究では、これら 2 つのアプローチを組み合わせて、2 つの Serial APProximate IMPLY ベースの全加算器 (SAPPI) を提案します。
リップルキャリー加算器 (RCA) に組み込まれた場合、当社の設計は、正確なアルゴリズムと比較して、ステップ数が 39% ~ 41%、エネルギー消費が 39% ~ 42% 削減されます。
私たちは回路レベルでアプローチを評価し、それを最先端 (SoA) 近似と比較しました。そこでは、加算器により速度が最大 10%、エネルギー効率が最大 13% 向上しました。
私たちは設計を 3 つの一般的な画像処理アプリケーションに適用し、RCA の最大半分まで許容できる画質を達成しました。
私たちはケーススタディを実行して、機械学習 (ML) における近似の適用可能性を実証し、より複雑なシナリオでの潜在的な利益を強調しました。
提案されたアプローチは、精度を維持しながら、MNIST データセットでトレーニングされた畳み込みニューラル ネットワーク (CNN) に適用した場合、最大 296 mJ (21%) のエネルギー節約と 13 億 (20%) の計算ステップの削減を実証します。

要約(オリジナル)

To overcome the performance limitations in modern computing, such as the power wall, emerging computing paradigms are gaining increasing importance. Approximate computing offers a promising solution by substantially enhancing energy efficiency and reducing latency, albeit with a trade-off in accuracy. Another emerging method is memristor-based In-Memory Computing (IMC) which has the potential to overcome the Von Neumann bottleneck. In this work, we combine these two approaches and propose two Serial APProximate IMPLY-based full adders (SAPPI). When embedded in a Ripple Carry Adder (RCA), our designs reduce the number of steps by 39%-41% and the energy consumption by 39%-42% compared to the exact algorithm. We evaluated our approach at the circuit level and compared it with State-of-the-Art (SoA) approximations where our adders improved the speed by up to 10% and the energy efficiency by up to 13%. We applied our designs in three common image processing applications where we achieved acceptable image quality with up to half of the RCA approximated. We performed a case study to demonstrate the applicability of our approximations in Machine Learning (ML) underscoring the potential gains in more complex scenarios. The proposed approach demonstrates energy savings of up to 296 mJ (21%) and a reduction of 1.3 billion (20%) computational steps when applied to Convolutional Neural Networks (CNNs) trained on the MNIST dataset while maintaining accuracy.

arxiv情報

著者 Melanie Qiu,Caoyueshan Fan,Gulafshan,Salar Shakibhamedan,Fabian Seiler,Nima TaheriNejad
発行日 2024-12-20 13:36:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.ET, cs.LG パーマリンク