Efficient visual object representation using a biologically plausible spike-latency code and winner-take-all inhibition

要約

ディープニューラルネットワークは、オブジェクト認識などの主要な視覚的課題で人間のパフォーマンスを上回っていますが、大量のエネルギー、計算、およびメモリを必要とします。
対照的に、スパイキングニューラルネットワーク(SNN)は、オブジェクト認識システムの効率と生物学的妥当性の両方を向上させる可能性があります。
ここでは、スパイク遅延コーディングと勝者-テイクオール抑制(WTA-I)を使用して、FashionMNISTデータセットからの視覚刺激を効率的に表すSNNモデルを紹介します。
刺激は、中心周囲の受容野で前処理され、スパイクタイミング依存可塑性(STDP)を使用してシナプス荷重が更新されたスパイキングニューロンの層に供給されました。
表現されたオブジェクトの品質がさまざまなWTA-Iスキームの下でどのように変化するかを調査し、150個のスパイキングニューロンのネットワークがわずか40個のスパイクでオブジェクトを効率的に表現できることを示します。
SNNで生物学的にもっともらしい学習ルールを使用してコアオブジェクト認識を実装する方法を研究することは、脳の理解を深めるだけでなく、斬新で効率的な人工視覚システムにつながる可能性があります。

要約(オリジナル)

Deep neural networks have surpassed human performance in key visual challenges such as object recognition, but require a large amount of energy, computation, and memory. In contrast, spiking neural networks (SNNs) have the potential to improve both the efficiency and biological plausibility of object recognition systems. Here we present a SNN model that uses spike-latency coding and winner-take-all inhibition (WTA-I) to efficiently represent visual stimuli from the Fashion MNIST dataset. Stimuli were preprocessed with center-surround receptive fields and then fed to a layer of spiking neurons whose synaptic weights were updated using spike-timing-dependent-plasticity (STDP). We investigate how the quality of the represented objects changes under different WTA-I schemes and demonstrate that a network of 150 spiking neurons can efficiently represent objects with as little as 40 spikes. Studying how core object recognition may be implemented using biologically plausible learning rules in SNNs may not only further our understanding of the brain, but also lead to novel and efficient artificial vision systems.

arxiv情報

著者 Melani Sanchez-Garcia,Tushar Chauhan,Benoit R. Cottereau,Michael Beyeler
発行日 2022-06-22 17:14:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク