要約
Spiking neural network (SNN) は、生物学的な信憑性が高く、ニューロモルフィックハードウェアでのエネルギー消費が少ないという特性から、非常に重要視されています。深いSNNを得るための効率的な方法として、変換法は様々な大規模データセットで高い性能を発揮してきました。しかし、一般的に激しい性能低下と高い時間遅延に悩まされている。特に、これまでの研究のほとんどは、ANNの出力に対する正確な近似を無視し、単純な分類タスクに焦点を合わせている。本論文では、まず変換誤差を理論的に解析し、シナプス電流に対する時間的に変化する極値の弊害を導き出す。そして、出力分布に対する不連続スパイクの害を除去するスパイクキャリブレーション(SpiCalib)を提案し、任意のMaxPooling層をロスレスで変換できるようLIPoolingを修正する。さらに、最適な正規化パラメータのベイズ最適化を提案し、経験則に基づく設定を回避している。実験結果は、分類、物体検出、セグメンテーションの各タスクにおいて、最先端の性能を実証している。我々の知る限り、これらのタスクで同時にANNに匹敵するSNNを得たのは今回が初めてである。さらに、検出タスクでは従来の1/50の推論時間で済み、セグメンテーションタスクではANNの0.492$times$のエネルギー消費で同性能を達成することが可能である。
要約(オリジナル)
Spiking neural network (SNN) has been attached to great importance due to the properties of high biological plausibility and low energy consumption on neuromorphic hardware. As an efficient method to obtain deep SNN, the conversion method has exhibited high performance on various large-scale datasets. However, it typically suffers from severe performance degradation and high time delays. In particular, most of the previous work focuses on simple classification tasks while ignoring the precise approximation to ANN output. In this paper, we first theoretically analyze the conversion errors and derive the harmful effects of time-varying extremes on synaptic currents. We propose the Spike Calibration (SpiCalib) to eliminate the damage of discrete spikes to the output distribution and modify the LIPooling to allow conversion of the arbitrary MaxPooling layer losslessly. Moreover, Bayesian optimization for optimal normalization parameters is proposed to avoid empirical settings. The experimental results demonstrate the state-of-the-art performance on classification, object detection, and segmentation tasks. To the best of our knowledge, this is the first time to obtain SNN comparable to ANN on these tasks simultaneously. Moreover, we only need 1/50 inference time of the previous work on the detection task and can achieve the same performance under 0.492$\times$ energy consumption of ANN on the segmentation task.
arxiv情報
| 著者 | Yang Li,Xiang He,Yiting Dong,Qingqun Kong,Yi Zeng |
| 発行日 | 2022-07-06 14:18:44+00:00 |
| arxivサイト | arxiv_id(pdf) |