A Spectral Theory of Neural Prediction and Alignment

要約

ニューラル ネットワークの表現は、ニューラル ネットワークの応答と生物学的システムから測定された応答との間の回帰を実行することによって、生物学的システムの表現と比較されることがよくあります。
多くの異なる最先端のディープ ニューラル ネットワークは同様のニューラル予測を生成しますが、ニューラル応答の予測において同等に優れたパフォーマンスを発揮するモデルをどのように区別するかは依然として不明です。
これについての洞察を得るために、回帰からの汎化誤差をモデルの活性化のスペクトル バイアスとモデルの学習可能な部分空間への神経応答の位置合わせに関連付ける最近の理論的フレームワークを使用します。
この理論をモデルの活性化と神経応答の間の回帰のケースに拡張し、エラー埋め込みジオメトリを記述する幾何学的プロパティを定義します。
私たちは、視覚皮質活動を予測する多数のディープ ニューラル ネットワークをテストし、回帰によって測定されるニューラル予測誤差が低くなる複数のタイプの形状があることを示します。
この研究は、表現メトリクスを慎重に分解することで、モデルが神経活動をどのように捉えているかの解釈可能性を提供し、神経活動のモデルの改善への道を示すことができることを実証しています。

要約(オリジナル)

The representations of neural networks are often compared to those of biological systems by performing regression between the neural network responses and those measured from biological systems. Many different state-of-the-art deep neural networks yield similar neural predictions, but it remains unclear how to differentiate among models that perform equally well at predicting neural responses. To gain insight into this, we use a recent theoretical framework that relates the generalization error from regression to the spectral bias of the model activations and the alignment of the neural responses onto the learnable subspace of the model. We extend this theory to the case of regression between model activations and neural responses, and define geometrical properties describing the error embedding geometry. We test a large number of deep neural networks that predict visual cortical activity and show that there are multiple types of geometries that result in low neural prediction error as measured via regression. The work demonstrates that carefully decomposing representational metrics can provide interpretability of how models are capturing neural activity and points the way towards improved models of neural activity.

arxiv情報

著者 Abdulkadir Canatar,Jenelle Feather,Albert Wakhloo,SueYeon Chung
発行日 2023-09-22 12:24:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, q-bio.NC パーマリンク