Exploring Behavior-Relevant and Disentangled Neural Dynamics with Generative Diffusion Models

要約

行動の神経基盤を理解することは、神経科学における基本的な目標である。大規模な神経行動データ解析における現在の研究は、多くの場合、神経データ中の行動情報を定量化するデコーディングモデルに依存しているが、行動のエンコードに関する詳細な情報は得られていない。このことは、「どのようにすれば、行動課題における神経表現の詳細な探索を可能にし、行動に関連する解釈可能な神経ダイナミクスを明らかにすることができるか」という興味深い科学的問題を提起している。しかし、この問題に取り組むことは、異なる脳領域にわたる多様な行動エンコードと、集団レベルでの混合選択性のために困難である。この限界に対処するために、「BeNeDiff」と名付けられた我々のアプローチでは、まず行動情報に基づいた潜在変数モデルを用いて、きめ細かく分離された神経部分空間を特定する。次に、最新の生成拡散モデルを用いて、各潜在因子の神経ダイナミクスを解釈する行動動画を合成する。本手法は、大脳皮質背面全体の広視野カルシウムイメージング記録を含むマルチセッションデータセットで検証した。個々の潜在因子を活性化するように拡散モデルを誘導することにより、分離された神経部分空間における潜在因子の神経ダイナミクスが、関心のある行動の解釈可能な定量化を提供することを検証する。同時に、BeNeDiffの神経部分空間は、高い分離性と神経再構成の質を示している。

要約(オリジナル)

Understanding the neural basis of behavior is a fundamental goal in neuroscience. Current research in large-scale neuro-behavioral data analysis often relies on decoding models, which quantify behavioral information in neural data but lack details on behavior encoding. This raises an intriguing scientific question: “how can we enable in-depth exploration of neural representations in behavioral tasks, revealing interpretable neural dynamics associated with behaviors”. However, addressing this issue is challenging due to the varied behavioral encoding across different brain regions and mixed selectivity at the population level. To tackle this limitation, our approach, named “BeNeDiff”, first identifies a fine-grained and disentangled neural subspace using a behavior-informed latent variable model. It then employs state-of-the-art generative diffusion models to synthesize behavior videos that interpret the neural dynamics of each latent factor. We validate the method on multi-session datasets containing widefield calcium imaging recordings across the dorsal cortex. Through guiding the diffusion model to activate individual latent factors, we verify that the neural dynamics of latent factors in the disentangled neural subspace provide interpretable quantifications of the behaviors of interest. At the same time, the neural subspace in BeNeDiff demonstrates high disentanglement and neural reconstruction quality.

arxiv情報

著者 Yule Wang,Chengrui Li,Weihan Li,Anqi Wu
発行日 2024-10-31 21:43:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG, q-bio.NC パーマリンク