Learning Delays in Spiking Neural Networks using Dilated Convolutions with Learnable Spacings

要約

スパイキング ニューラル ネットワーク (SNN) は、電力効率の高い情報処理システム、特に音声認識などの一時的なタスクを構築するための有望な研究方向です。
SNN では、遅延とは、1 つのスパイクが 1 つのニューロンから別のニューロンに伝わるのに必要な時間を指します。
これらの遅延はスパイクの到着時間に影響を与えるため重要であり、スパイク ニューロンは同時に入力されたスパイクに対してより強く反応することがよく知られています。
より正式には、可塑的な遅延によって SNN の表現力が大幅に向上することが理論的に示されています。
しかし、これらの遅延を学習するための効率的なアルゴリズムはまだ存在していません。
ここでは、バックプロパゲーションを使用したディープ フィードフォワード SNN におけるこの問題にオフラインで対処する新しい離散時間アルゴリズムを提案します。
連続するレイヤー間の遅延をシミュレートするには、時間にわたる 1D 畳み込みを使用します。
カーネルには、ゼロ以外の重みが少数 (シナプスごとに 1 つ) だけ含まれており、その位置は遅延に対応します。
これらの位置は、最近提案された学習可能な間隔による拡張畳み込み (DCLS) を使用して重みとともに学習されます。
私たちは、時間的パターンの検出を必要とするスパイキング ハイデルベルク データセット (SHD) とスパイキング スピーチ コマンド (SSC) ベンチマークでメソッドを評価しました。
2 つの隠れた全結合層を持つフィードフォワード SNN を使用しました。
私たちは、固定されたランダムな遅延が役立つこと、そしてそれを学習することがさらに役立つことを示しました。
さらに、私たちの方法は、反復接続を使用せず、大幅に少ないパラメータで、SHD と SSC の両方で最先端の方法を上回りました。
私たちの研究は、時間データ処理のための正確かつ正確なモデルの開発における遅延学習の可能性を実証しています。
私たちのコードは PyTorch / SpikingJelly に基づいており、https://github.com/Thvnvtos/SNN-lays から入手できます。

要約(オリジナル)

Spiking Neural Networks (SNNs) are a promising research direction for building power-efficient information processing systems, especially for temporal tasks such as speech recognition. In SNNs, delays refer to the time needed for one spike to travel from one neuron to another. These delays matter because they influence the spike arrival times, and it is well-known that spiking neurons respond more strongly to coincident input spikes. More formally, it has been shown theoretically that plastic delays greatly increase the expressivity in SNNs. Yet, efficient algorithms to learn these delays have been lacking. Here, we propose a new discrete-time algorithm that addresses this issue in deep feedforward SNNs using backpropagation, in an offline manner. To simulate delays between consecutive layers, we use 1D convolutions across time. The kernels contain only a few non-zero weights – one per synapse – whose positions correspond to the delays. These positions are learned together with the weights using the recently proposed Dilated Convolution with Learnable Spacings (DCLS). We evaluated our method on the Spiking Heidelberg Dataset (SHD) and the Spiking Speech Commands (SSC) benchmarks, which require detecting temporal patterns. We used feedforward SNNs with two hidden fully connected layers. We showed that fixed random delays help, and that learning them helps even more. Furthermore, our method outperformed the state-of-the-art in both SHD and SSC without using recurrent connections and with substantially fewer parameters. Our work demonstrates the potential of delay learning in developing accurate and precise models for temporal data processing. Our code is based on PyTorch / SpikingJelly and available at: https://github.com/Thvnvtos/SNN-delays

arxiv情報

著者 Ilyass Hammouamri,Ismail Khalfaoui-Hassani,Timothée Masquelier
発行日 2023-06-30 14:01:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NE パーマリンク