要約
部分的に観察可能な一般化線形モデル (POGLM) は、既存の隠れニューロンの仮定の下でニューラル接続を理解するための強力なツールです。
スパイク列は目に見えるニューロンからのみ記録されるため、既存の研究では変分推論を使用して POGLM を学習する一方で、この潜在変数モデルを学習することは困難です。
主な問題は 2 つあります。(1) サンプリングされたポアソン隠れスパイク数により、VI での経路勾配推定器の使用が妨げられます。
(2) 変分モデルの既存の設計は表現力も時間効率も悪く、パフォーマンスにさらに影響を及ぼします。
(1) については、既存の研究で使用されているスコア関数勾配推定器よりも優れた経路ごとの勾配推定器を可能にする、新しい微分可能な POGLM を提案します。
(2) については、変分モデルに対する前方後方メッセージ パッシング サンプリング スキームを提案します。
包括的な実験により、前方後方メッセージ パッシングを使用した微分可能な POGLM が、1 つの合成データセットと 2 つの現実世界のデータセットで優れたパフォーマンスを生み出すことが示されました。
さらに、私たちの新しい方法は、より解釈可能なパラメーターを生成し、神経科学におけるその重要性を強調しています。
要約(オリジナル)
The partially observable generalized linear model (POGLM) is a powerful tool for understanding neural connectivity under the assumption of existing hidden neurons. With spike trains only recorded from visible neurons, existing works use variational inference to learn POGLM meanwhile presenting the difficulty of learning this latent variable model. There are two main issues: (1) the sampled Poisson hidden spike count hinders the use of the pathwise gradient estimator in VI; and (2) the existing design of the variational model is neither expressive nor time-efficient, which further affects the performance. For (1), we propose a new differentiable POGLM, which enables the pathwise gradient estimator, better than the score function gradient estimator used in existing works. For (2), we propose the forward-backward message-passing sampling scheme for the variational model. Comprehensive experiments show that our differentiable POGLMs with our forward-backward message passing produce a better performance on one synthetic and two real-world datasets. Furthermore, our new method yields more interpretable parameters, underscoring its significance in neuroscience.
arxiv情報
著者 | Chengrui Li,Weihan Li,Yule Wang,Anqi Wu |
発行日 | 2024-02-07 18:44:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google