Unlocking the potential of two-point cells for energy-efficient training of deep nets

要約

コンテキスト依存の 2 点レイヤー 5 錐体細胞 (L5PC) は、1999 年に発見されました。しかし、この発見が有用なニューラル計算を提供する可能性はまだ実証されていません。
ここでは、多感覚協調コンピューティング (MCC) アーキテクチャと呼ばれる、変革をもたらす L5PC 駆動のディープ ニューラル ネットワーク (DNN) が、大量の異種の実世界のオーディオビジュアル (AV) データを効果的に処理できる方法を初めて示します。
利用可能な最良の「ポイント」ニューロン駆動 DNN と比較してエネルギーが少ない。
ザイリンクス UltraScale+ MPSoC デバイスでの新しい高度に分散された並列実装では、最大 245759 $\times$ 50000 $\mu$J (つまり、半教師あり学習セットアップのベースライン モデルより 62% 少ない) のエネルギー節約が推定されます。
シナプスは $8e^{-5}\mu$J を消費します。
教師あり学習のセットアップでは、エネルギー節約は、ベースライン モデルよりも最大 1250 倍少なくなる可能性があります (フィードフォワード送信あたり)。
パイロット実験でのこの驚くべきパフォーマンスは、オンチップトレーニングの初期段階で利用される圧倒的に大きなマルチモーダル情報から、前方送信のために最も顕著で関連性のある情報をコンテキストに応じて選択する、提案された L5PC ベースの MCC アーキテクチャの具現化されたニューロモルフィック インテリジェンスを示しています。
私たちが提案するアプローチは、将来のオンチップ DNN トレーニング実装のための新しい分野横断的な道を切り開き、現在のニューロモーフィック コンピューティング パラダイムに根本的な変化をもたらします。

要約(オリジナル)

Context-sensitive two-point layer 5 pyramidal cells (L5PC) were discovered as long ago as 1999. However, the potential of this discovery to provide useful neural computation has yet to be demonstrated. Here we show for the first time how a transformative L5PC-driven deep neural network (DNN), termed the multisensory cooperative computing (MCC) architecture, can effectively process large amounts of heterogeneous real-world audio-visual (AV) data, using far less energy compared to best available `point’ neuron-driven DNNs. A novel highly-distributed parallel implementation on a Xilinx UltraScale+ MPSoC device estimates energy savings up to 245759 $\times$ 50000 $\mu$J (i.e., 62% less than the baseline model in a semi-supervised learning setup) where a single synapse consumes $8e^{-5}\mu$J. In a supervised learning setup, the energy-saving can potentially reach up to 1250x less (per feedforward transmission) than the baseline model. This remarkable performance in pilot experiments demonstrates the embodied neuromorphic intelligence of our proposed L5PC based MCC architecture that contextually selects the most salient and relevant information for onward transmission, from overwhelmingly large multimodal information utilised at the early stages of on-chip training. Our proposed approach opens new cross-disciplinary avenues for future on-chip DNN training implementations and posits a radical shift in current neuromorphic computing paradigms.

arxiv情報

著者 Ahsan Adeel,Adewale Adetomi,Khubaib Ahmed,Amir Hussain,Tughrul Arslan,W. A. Phillips
発行日 2022-11-14 16:14:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.NE パーマリンク