要約
脳内の認知プロセスを理解するには、大規模な神経力学を再現できる洗練されたモデルが必要です。
我々は、深層学習フレームワークと互換性がありスケーラブルな、生理学的にヒントを得た音声認識アーキテクチャを提示し、エンドツーエンドの勾配降下トレーニングが中央スパイキング ニューラル ネットワークでの神経振動の出現につながることを実証します。
これらの振動を示す重大な周波数間結合は、音声処理中にネットワーク層内およびネットワーク層全体で測定されますが、背景ノイズ入力を処理する場合にはそのような相互作用は観察されません。
さらに、我々の発見は、認識性能を向上させるための神経活動の調節と同期において、スパイク周波数の適応や反復接続などのフィードバック機構の重要な抑制的役割を強調している。
全体として、人間の聴覚経路で特に観察される同期現象の理解を発展させることに加えて、私たちのアーキテクチャは、ニューロモーフィック技術に関連した動的で効率的な情報処理を示します。
要約(オリジナル)
Understanding cognitive processes in the brain demands sophisticated models capable of replicating neural dynamics at large scales. We present a physiologically inspired speech recognition architecture, compatible and scalable with deep learning frameworks, and demonstrate that end-to-end gradient descent training leads to the emergence of neural oscillations in the central spiking neural network. Significant cross-frequency couplings, indicative of these oscillations, are measured within and across network layers during speech processing, whereas no such interactions are observed when handling background noise inputs. Furthermore, our findings highlight the crucial inhibitory role of feedback mechanisms, such as spike frequency adaptation and recurrent connections, in regulating and synchronising neural activity to improve recognition performance. Overall, on top of developing our understanding of synchronisation phenomena notably observed in the human auditory pathway, our architecture exhibits dynamic and efficient information processing, with relevance to neuromorphic technology.
arxiv情報
著者 | Alexandre Bittar,Philip N. Garner |
発行日 | 2024-04-22 09:40:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google