要約
神経反応の計算モデルを開発することは、感覚処理と神経計算を理解するために重要です。
現在の最先端のニューラル ネットワーク手法では、時間フィルターを使用して時間依存関係を処理するため、非現実的で柔軟性に欠ける処理パラダイムが生じます。
一方、これらの方法は試験の平均発火率をターゲットにしており、スパイク列の重要な特徴を捕捉できません。
この研究では、自然な視覚刺激に対する神経反応をシミュレートするための時間的条件付けスパイキング潜在変数モデル (TeCoS-LVM) を紹介します。
スパイク ニューロンを使用して、記録されたトレインに直接一致するスパイク出力を生成します。
このアプローチは、元のスパイク列に埋め込まれた情報の損失を回避するのに役立ちます。
モデルのパラメーター空間から時間次元を除外し、時間的条件付け操作を導入して、モデルが {\it 自然パラダイム} における刺激シーケンスの時間的依存関係を適応的に探索および活用できるようにします。
TeCoS-LVM モデルは、強力な代替モデルよりも、より現実的なスパイク アクティビティを生成し、スパイク統計を正確に適合できることを示します。
さらに、学習された TeCoS-LVM モデルは、より長い時間スケールまでうまく一般化できます。
全体として、私たちのモデルは計算的に扱いやすいままでありながら、ニューラルコーディングシステムの主要な特徴を効果的に捉えています。
したがって、さまざまな感覚認識回路の正確な予測計算アカウントを構築するための有用なツールを提供します。
要約(オリジナル)
Developing computational models of neural response is crucial for understanding sensory processing and neural computations. Current state-of-the-art neural network methods use temporal filters to handle temporal dependencies, resulting in an unrealistic and inflexible processing paradigm. Meanwhile, these methods target trial-averaged firing rates and fail to capture important features in spike trains. This work presents the temporal conditioning spiking latent variable models (TeCoS-LVM) to simulate the neural response to natural visual stimuli. We use spiking neurons to produce spike outputs that directly match the recorded trains. This approach helps to avoid losing information embedded in the original spike trains. We exclude the temporal dimension from the model parameter space and introduce a temporal conditioning operation to allow the model to adaptively explore and exploit temporal dependencies in stimuli sequences in a {\it natural paradigm}. We show that TeCoS-LVM models can produce more realistic spike activities and accurately fit spike statistics than powerful alternatives. Additionally, learned TeCoS-LVM models can generalize well to longer time scales. Overall, while remaining computationally tractable, our model effectively captures key features of neural coding systems. It thus provides a useful tool for building accurate predictive computational accounts for various sensory perception circuits.
arxiv情報
著者 | Gehua Ma,Runhao Jiang,Rui Yan,Huajin Tang |
発行日 | 2023-09-25 15:05:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google