Learning Delays in Spiking Neural Networks using Dilated Convolutions with Learnable Spacings

要約

スパイキング・ニューラル・ネットワーク(SNN)は、特に音声認識のような時間的タスクにおいて、電力効率の高い情報処理システムを構築するための有望な研究方向である。SNNでは、遅延とは1つのスパイクが1つのニューロンから別のニューロンへ移動するのに必要な時間を指す。これらの遅延はスパイクの到着時間に影響するため重要であり、スパイクするニューロンは入力スパイクが一致するほど強く反応することはよく知られている。より正式には、可塑的な遅延がSNNの表現力を大幅に向上させることが理論的に示されている。しかし、このような遅延を学習する効率的なアルゴリズムはこれまで存在しなかった。ここでは、バックプロパゲーションを用いた深いフィードフォワードSNNにおいて、この問題に対処する新しい離散時間アルゴリズムを、オフラインの方法で提案する。連続する層間の遅延をシミュレートするために、時間をまたいだ1次元畳み込みを用いる。このカーネルには、シナプスごとに1つずつ、遅延に対応する非ゼロ重みが含まれる。これらの位置は、最近提案された学習可能な間隔を持つ拡張畳み込み(Dilated Convolution with Learnable Spacings: DCLS)を用いて重みとともに学習される。我々の手法を3つのデータセットで評価した:Spiking Heidelberg Dataset (SHD)、Spiking Speech Commands (SSC)とその非スパイキング版であるGoogle Speech Commands v0.02(GSC)ベンチマークで、時間的パターンを検出する必要がある。我々は2層または3層の隠れ全結合層を持つフィードフォワードSNNとバニラリーク積分発火ニューロンを用いた。固定ランダム遅延が有効であり、それを学習することでさらに有効であることを示した。さらに、我々の手法は、リカレント接続を用いず、より少ないパラメータで、3つのデータセットにおいて最先端技術を凌駕した。我々の研究は、時間データ処理のための正確で精密なモデルの開発における遅延学習の可能性を示している。我々のコードはPyTorch / SpikingJellyに基づいており、https://github.com/Thvnvtos/SNN-delays。

要約(オリジナル)

Spiking Neural Networks (SNNs) are a promising research direction for building power-efficient information processing systems, especially for temporal tasks such as speech recognition. In SNNs, delays refer to the time needed for one spike to travel from one neuron to another. These delays matter because they influence the spike arrival times, and it is well-known that spiking neurons respond more strongly to coincident input spikes. More formally, it has been shown theoretically that plastic delays greatly increase the expressivity in SNNs. Yet, efficient algorithms to learn these delays have been lacking. Here, we propose a new discrete-time algorithm that addresses this issue in deep feedforward SNNs using backpropagation, in an offline manner. To simulate delays between consecutive layers, we use 1D convolutions across time. The kernels contain only a few non-zero weights – one per synapse – whose positions correspond to the delays. These positions are learned together with the weights using the recently proposed Dilated Convolution with Learnable Spacings (DCLS). We evaluated our method on three datasets: the Spiking Heidelberg Dataset (SHD), the Spiking Speech Commands (SSC) and its non-spiking version Google Speech Commands v0.02 (GSC) benchmarks, which require detecting temporal patterns. We used feedforward SNNs with two or three hidden fully connected layers, and vanilla leaky integrate-and-fire neurons. We showed that fixed random delays help and that learning them helps even more. Furthermore, our method outperformed the state-of-the-art in the three datasets without using recurrent connections and with substantially fewer parameters. Our work demonstrates the potential of delay learning in developing accurate and precise models for temporal data processing. Our code is based on PyTorch / SpikingJelly and available at: https://github.com/Thvnvtos/SNN-delays

arxiv情報

著者 Ilyass Hammouamri,Ismail Khalfaoui-Hassani,Timothée Masquelier
発行日 2023-12-01 14:23:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, cs.NE パーマリンク