要約
より優れた生物学的妥当性にもかかわらず、目標駆動型スパイキング ニューラル ネットワーク (SNN) は、生物学的スパイク列を分類するための適切なパフォーマンスを達成しておらず、従来の人工ニューラル ネットワークと比較して生体機能の類似性をほとんど示していません。
この研究では、霊長類の神経運動回路に触発されたリカレント SNN である motorSRNN を提案しました。
サルの一次運動皮質からのスパイク列の解読に motorSRNN を採用することで、分類精度とエネルギー消費のバランスをうまくとることができました。
motorSRNN は、運動皮質のニューロンの本質的な特性であるコサイン チューニングをより多く取得して育成することにより、入力と通信し、トレーニング中の安定性を維持しました。
このようなトレーニングによる培養と余弦チューニングの持続性は、サルでも観察されました。
さらに、motorSRNN は、単一ニューロン、集団、および回路レベルで追加の生体機能的類似性を生み出し、生物学的信頼性を実証しました。
これにより、motorSRNN に関するアブレーション研究は、長期的に安定したフィードバック シナプスが、運動皮質におけるトレーニング誘発性培養に寄与することを示唆しています。
これらの新しい発見と予測に加えて、ニューラル計算の本格的なモデルを構築するための新しいフレームワークを提供します。
要約(オリジナル)
Despite its better bio-plausibility, goal-driven spiking neural network (SNN) has not achieved applicable performance for classifying biological spike trains, and showed little bio-functional similarities compared to traditional artificial neural networks. In this study, we proposed the motorSRNN, a recurrent SNN topologically inspired by the neural motor circuit of primates. By employing the motorSRNN in decoding spike trains from the primary motor cortex of monkeys, we achieved a good balance between classification accuracy and energy consumption. The motorSRNN communicated with the input by capturing and cultivating more cosine-tuning, an essential property of neurons in the motor cortex, and maintained its stability during training. Such training-induced cultivation and persistency of cosine-tuning was also observed in our monkeys. Moreover, the motorSRNN produced additional bio-functional similarities at the single-neuron, population, and circuit levels, demonstrating biological authenticity. Thereby, ablation studies on motorSRNN have suggested long-term stable feedback synapses contribute to the training-induced cultivation in the motor cortex. Besides these novel findings and predictions, we offer a new framework for building authentic models of neural computation.
arxiv情報
著者 | Tengjun Liu,Yansong Chua,Yiwei Zhang,Yuxiao Ning,Pengfu Liu,Guihua Wan,Zijun Wan,Shaomin Zhang,Weidong Chen |
発行日 | 2023-03-14 12:06:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google