Expressive architectures enhance interpretability of dynamics-based neural population models

要約

記録された神経活動から潜在的なダイナミクスを回復できる人工ニューラル ネットワークは、生物学的計算の根底にある動的モチーフを特定して解釈するための強力な手段を提供する可能性があります。
神経分散だけでは潜在動的システムを一意に決定できないことを考えると、解釈可能なアーキテクチャでは、正確で低次元の潜在動的システムを優先する必要があります。
この作業では、シミュレートされたニューラル データセットから潜在的なカオス アトラクタを回復する際のシーケンシャル オートエンコーダ (SAE) のパフォーマンスを評価しました。
広く使用されているリカレント ニューラル ネットワーク (RNN) ベースのダイナミクスを使用する SAE は、真の潜在状態の次元で正確な発火率を推測できず、より大きな RNN はデータに存在しない動的特徴に依存していることがわかりました。
一方、ニューラル常微分方程式 (NODE) ベースのダイナミクスを使用した SAE は、真の潜在状態の次元で正確なレートを推測し、潜在軌道と固定点構造も回復しました。
アブレーションは、これが主に NODE が (1) ベクトル場をモデル化するために高容量の多層パーセプトロン (MLP) を使用できるようにし、(2) 次の状態ではなく導関数を予測するためであることを明らかにしています。
ダイナミクス モデルの容量を潜在次元から分離することで、NODE は RNN セルが失敗する必要な低 D ダイナミクスを学習できます。
さらに、NODE が導関数を予測するという事実は、潜在状態に有用な自己回帰事前確率を課します。
広く使用されている RNN ベースのダイナミクスの次善の解釈可能性は、低次元潜在空間での正確なダイナミクスの学習を可能にする NODE などの代替アーキテクチャの代替を動機付ける可能性があります。

要約(オリジナル)

Artificial neural networks that can recover latent dynamics from recorded neural activity may provide a powerful avenue for identifying and interpreting the dynamical motifs underlying biological computation. Given that neural variance alone does not uniquely determine a latent dynamical system, interpretable architectures should prioritize accurate and low-dimensional latent dynamics. In this work, we evaluated the performance of sequential autoencoders (SAEs) in recovering latent chaotic attractors from simulated neural datasets. We found that SAEs with widely-used recurrent neural network (RNN)-based dynamics were unable to infer accurate firing rates at the true latent state dimensionality, and that larger RNNs relied upon dynamical features not present in the data. On the other hand, SAEs with neural ordinary differential equation (NODE)-based dynamics inferred accurate rates at the true latent state dimensionality, while also recovering latent trajectories and fixed point structure. Ablations reveal that this is mainly because NODEs (1) allow use of higher-capacity multi-layer perceptrons (MLPs) to model the vector field and (2) predict the derivative rather than the next state. Decoupling the capacity of the dynamics model from its latent dimensionality enables NODEs to learn the requisite low-D dynamics where RNN cells fail. Additionally, the fact that the NODE predicts derivatives imposes a useful autoregressive prior on the latent states. The suboptimal interpretability of widely-used RNN-based dynamics may motivate substitution for alternative architectures, such as NODE, that enable learning of accurate dynamics in low-dimensional latent spaces.

arxiv情報

著者 Andrew R. Sedler,Christopher Versteeg,Chethan Pandarinath
発行日 2023-02-17 17:44:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.NC パーマリンク