Neural population geometry and optimal coding of tasks with shared latent structure

要約

人間と動物は環境内の潜在的な構造を認識し、その情報を適用して世界を効率的にナビゲートできます。
ただし、神経活動のどのような側面がこれらの計算能力に寄与しているのかは依然として不明です。
ここでは、神経集団の活動の形状を、共通の潜在構造に依存する一連のタスクに対する線形読み出しの一般化パフォーマンスに結び付ける分析理論を開発します。
アクティビティの 4 つの幾何学的尺度がタスク全体のパフォーマンスを決定することを示します。
この理論を使用すると、実験的に観察されたもつれの解けた表現が、マルチタスク学習問題に対する最適な解決策として自然に現れることがわかります。
データが不足している場合、これらの最適なニューラル コードは情報量の少ない潜在変数を圧縮し、データが豊富な場合、これらの変数を状態空間内で拡張します。
私たちは、マカクの腹側流記録を使用して理論を検証します。
したがって、私たちの結果は母集団の形状をマルチタスク学習に結び付けます。

要約(オリジナル)

Humans and animals can recognize latent structures in their environment and apply this information to efficiently navigate the world. However, it remains unclear what aspects of neural activity contribute to these computational capabilities. Here, we develop an analytical theory linking the geometry of a neural population’s activity to the generalization performance of a linear readout on a set of tasks that depend on a common latent structure. We show that four geometric measures of the activity determine performance across tasks. Using this theory, we find that experimentally observed disentangled representations naturally emerge as an optimal solution to the multi-task learning problem. When data is scarce, these optimal neural codes compress less informative latent variables, and when data is abundant, they expand these variables in the state space. We validate our theory using macaque ventral stream recordings. Our results therefore tie population geometry to multi-task learning.

arxiv情報

著者 Albert J. Wakhloo,Will Slatton,SueYeon Chung
発行日 2024-04-11 17:40:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG, cs.NE, q-bio.NC パーマリンク