Revealing higher-order neural representations with generative artificial intelligence

要約

研究の目的は、しばしば、神経表現が、その内容や構造など、観察者の環境の側面をどのようにエンコードするかを明らかにすることを目的としています。
これらは、「一次」表現(FORS)です。なぜなら、それらは外の世界に「約」」であるためです。
あまり一般的ではないターゲットは、「高次」表現(馬)です。これは、その内容、安定性、または不確実性という「約」のフォームです。
不確実性の馬は、不確実性の下での学習、学習率の影響、環境フィードバックに基づいた内部モデルの更新など、適応行動に非常に関与しているように見えます。
ただし、不確実性に関する馬は、特性に対して「読み出し」を直接的にする可能性は低く、代わりに損失、バイアスが発生しやすい、または歪んでいる可能性のある推定プロセスを反映しており、オブザーバーが経験する可能性のある不確実性の分布の推定値も組み込まれる可能性があります。
一部の研究では、「瞬時に」推定された不確実性の神経表現を標的としていますが、予想される不確実性の\ textit {分布}をどのように表現するかはほとんど未踏のままです。
ここでは、不確実性分布の神経表現を調査するための新しい強化学習(RL)ベースの生成人工知能(GENAI)アプローチを提案します。
既存の機能的磁気共鳴画像データを使用します。人間は、脳の状態を「非ノイズ」して標的神経パターンを達成することを学び、拡散性拡散性genaiモデルをRLアルゴリズムで訓練して、人間が同じことをする方法と同様のノイズ分布を学習します。
次に、これらのモデルの学習したノイズ分布馬を、従来のバックプロパゲーションで訓練されたコントロールモデルと比較して探索します。
結果は、RLベースのモデルが人間の行動にはるかに高い説明力を提供する騒音分布表現のモデル依存の違いを明らかにしています。

要約(オリジナル)

Studies often aim to reveal how neural representations encode aspects of an observer’s environment, such as its contents or structure. These are “first-order’ representations (FORs), because they’re “about’ the external world. A less-common target is “higher-order’ representations (HORs), which are “about’ FORs — their contents, stability, or uncertainty. HORs of uncertainty appear critically involved in adaptive behaviors including learning under uncertainty, influencing learning rates and internal model updating based on environmental feedback. However, HORs about uncertainty are unlikely to be direct “read-outs’ of FOR characteristics, instead reflecting estimation processes which may be lossy, bias-prone, or distortive and which may also incorporate estimates of distributions of uncertainty the observer is likely to experience. While some research has targeted neural representations of “instantaneously’ estimated uncertainty, how the brain represents \textit{distributions} of expected uncertainty remains largely unexplored. Here, we propose a novel reinforcement learning (RL) based generative artificial intelligence (genAI) approach to explore neural representations of uncertainty distributions. We use existing functional magnetic resonance imaging data, where humans learned to `de-noise’ their brain states to achieve target neural patterns, to train denoising diffusion genAI models with RL algorithms to learn noise distributions similar to how humans might learn to do the same. We then explore these models’ learned noise-distribution HORs compared to control models trained with traditional backpropagation. Results reveal model-dependent differences in noise distribution representations — with the RL-based model offering much higher explanatory power for human behavior — offering an exciting path towards using genAI to explore neural noise-distribution HORs.

arxiv情報

著者 Hojjat Azimi Asrari,Megan A. K. Peters
発行日 2025-03-18 15:08:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, q-bio.NC パーマリンク