Inferring stochastic low-rank recurrent neural networks from neural data

要約

計算神経科学の中心的な目的は、大規模なニューロン集団の活動を根底にある力学システムに関連付けることです。
これらの神経力学のモデルは、理想的には解釈可能であり、観察されたデータによく適合する必要があります。
低ランクのリカレント ニューラル ネットワーク (RNN) は、扱いやすいダイナミクスを備えているため、このような解釈可能性を示します。
ただし、低ランクの RNN を、基礎となる確率システムのノイズの多い観測から構成されるデータに最適に適合させる方法は不明です。
ここでは、確率的低ランク RNN を変分逐次モンテカルロ法でフィッティングすることを提案します。
連続ニューラル データとスパイク ニューラル データの両方で構成されるいくつかのデータセットでメソッドを検証し、現在の最先端のメソッドよりも低次元の潜在ダイナミクスを取得します。
さらに、区分的線形非線形性を持つ低ランク モデルについては、ユニット数の指数コストではなく多項式のすべての固定点を効率的に特定する方法を示し、推論されたダイナミクスの分析を大規模な RNN で扱いやすくします。
私たちの方法は、実験記録の基礎となる力学システムを解明し、その軌道が観察された試験ごとの変動と一致する生成モデルを提供します。

要約(オリジナル)

A central aim in computational neuroscience is to relate the activity of large populations of neurons to an underlying dynamical system. Models of these neural dynamics should ideally be both interpretable and fit the observed data well. Low-rank recurrent neural networks (RNNs) exhibit such interpretability by having tractable dynamics. However, it is unclear how to best fit low-rank RNNs to data consisting of noisy observations of an underlying stochastic system. Here, we propose to fit stochastic low-rank RNNs with variational sequential Monte Carlo methods. We validate our method on several datasets consisting of both continuous and spiking neural data, where we obtain lower dimensional latent dynamics than current state of the art methods. Additionally, for low-rank models with piecewise linear nonlinearities, we show how to efficiently identify all fixed points in polynomial rather than exponential cost in the number of units, making analysis of the inferred dynamics tractable for large RNNs. Our method both elucidates the dynamical systems underlying experimental recordings and provides a generative model whose trajectories match observed trial-to-trial variability.

arxiv情報

著者 Matthijs Pals,A Erdem Sağtekin,Felix Pei,Manuel Gloeckler,Jakob H Macke
発行日 2024-06-24 15:57:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.NC, stat.ML パーマリンク