Do Large Language Models Think Like the Brain? Sentence-Level Evidence from fMRI and Hierarchical Embeddings

要約

大規模な言語モデル(LLMS)と人間の脳が同様の計算原理に合わせて収束するかどうかを理解することは、認知神経科学とAIにおける根本的かつ重要な問題のままです。
LLMSで観察される脳のようなパターンは、単にスケーリングから現れますか、それとも人間の言語処理のアーキテクチャとのより深い整合性を反映していますか?
この研究は、言語モデルの文レベルの神経メカニズムに焦点を当て、LLMの階層表現が人間の文の理解中の動的な神経応答とどのように整合するかを体系的に調査します。
自然主義的な物語の物語にさらされた参加者から収集されたfMRIデータを持つ14の公開されたLLMの階層埋め込みを比較することにより、脳領域の活性化と最も有意に相関するモデル層を正確に特定するために、文レベルの神経予測モデルを構築しました。
結果は、モデルパフォーマンスの改善が脳のような階層への表現アーキテクチャの進化を促進し、特により高いセマンティック抽象化レベルでより強力な機能的および解剖学的対応を達成することを示しています。

要約(オリジナル)

Understanding whether large language models (LLMs) and the human brain converge on similar computational principles remains a fundamental and important question in cognitive neuroscience and AI. Do the brain-like patterns observed in LLMs emerge simply from scaling, or do they reflect deeper alignment with the architecture of human language processing? This study focuses on the sentence-level neural mechanisms of language models, systematically investigating how hierarchical representations in LLMs align with the dynamic neural responses during human sentence comprehension. By comparing hierarchical embeddings from 14 publicly available LLMs with fMRI data collected from participants, who were exposed to a naturalistic narrative story, we constructed sentence-level neural prediction models to precisely identify the model layers most significantly correlated with brain region activations. Results show that improvements in model performance drive the evolution of representational architectures toward brain-like hierarchies, particularly achieving stronger functional and anatomical correspondence at higher semantic abstraction levels.

arxiv情報

著者 Yu Lei,Xingyang Ge,Yi Zhang,Yiming Yang,Bolei Ma
発行日 2025-05-28 16:40:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, q-bio.NC パーマリンク